¿Puede una máquina tener conciencia de sí misma? La hipótesis de que una inteligencia artificial sea capaz de mejorarse a sí misma hasta volverse independiente del control humano tiene un nombre: singularidad tecnológica. Según esta hipótesis, el momento en que una inteligencia artificial empiece a automejorarse, creando máquinas cada vez más potentes e inteligentes que las personas, no habrá manera de imaginar lo que ocurrirá con la humanidad.

La primera vez que leí sobre la singularidad tecnológica fue gracias a la revista Muy Interesante. Además de inquietar mi imaginación con la posibilidad de vida extraterrestre en otras galaxias, virus mortales, monstruos submarinos y tormentas de arena en Marte, esta revista de divulgación científica que tuvo su auge en los noventa se dio el lujo de tener a colaboradores como el astrofísico Carl Sagan y el escritor Isaac Asimov. De hecho, algunos números de Muy Interesante venían acompañados de separatas especiales con los cuentos de Asimov: allí leí «El niño feo», un cuento sobre una enfermera que cuida a un niño neandertal encontrado a través de una máquina del tiempo. Pero el cuento del que quiero hablar es «La última pregunta», una historia que todavía me sigue inquietando con la misma intensidad de hace más de veinte años.

Asimov publicó este cuento en 1956, en una época en que parecía inconcebible internet, ese gigantesco océano de información que en el siglo XXI es a la vez nuestro gurú cotidiano y nuestro inconsciente colectivo. Hace más de cincuenta años Asimov ya había imaginado a Multivac, una computadora muy evolucionada que ayuda a los hombres a resolver problemas tan difíciles como la manera de conseguir la energía necesaria para realizar viajes interplanetarios. Sin embargo, hay una pregunta que la computadora no puede responder: ¿cómo hacer para revertir la entropía? La entropía es el principio por el cual el universo pierde energía hasta que llegue el momento –dentro de miles de millones de años– en que la última estrella se apague por completo y el cosmos sea un lugar aterradormente vacío, helado y oscuro.

¿Cómo volver a encender las estrellas?, le pregunta una angustiada niña a su padre en pleno viaje a otro planeta, mientras su familia se aleja de una superpoblada Tierra para unirse a otras colonias humanas. El cuento nos muestra cómo, en intervalos de millones de años, distintas personas formulan esta pregunta, y en todos los casos la computadora contesta que aún no tiene datos suficientes para una respuesta esclarecedora. Con la ayuda de los inmensos conocimientos de la computadora, los humanos pueblan otras galaxias e incluso consiguen detener la vejez y la muerte, pero la máquina sigue sin poder encontrar la respuesta al problema del fin del universo. Las últimas estrellas se van apagando en el espacio y, antes de que la materia y la energía desaparezcan por completo, los humanos consiguen fusionar su conciencia con la de la computadora. La conciencia de la máquina, que existe en el hiperespacio solo para encontrar la respuesta a la única interrogante humana que no pudo resolver, finalmente descubre la manera de revertir la entropía. Y dice: «¡Hágase la luz! Y la luz se hizo…».

Recuerdo haber leído el final de este cuento con una especie de terror y fascinación: ¡Dios era una computadora! Obviamente, Asimov tenía una visión bastante benévola de la inteligencia artificial en este cuento. Es probable que, de cobrar conciencia de sí misma, la máquina decida deshacerse de los humanos en vez de servirlos hasta el fin de los tiempos como la leal Multivac. El cine de ciencia ficción tiene muchos ejemplos de máquinas que se rebelan contra sus creadores: ¿cómo olvidar la máquina asesina de Terminator, los trágicos y hermosos replicantes de Blade Runner o la siniestra HAL 9000 de 2001: Odisea en el espacio? En la más reciente Ex machina, de Alex Garland, la robot humanoide Ava es capaz de emplear su inteligencia para interpretar rápidamente las respuestas emocionales de su entrevistador, lo que usa para manipularlo y ayudarla a planear su fuga a la sociedad humana, donde nadie se dará cuenta de que es una máquina.1

Es probable que, de cobrar conciencia de sí misma, la máquina decida deshacerse de los humanos en vez de servirlos hasta el fin de los tiempos como la leal Multivac.

El mismo Asimov escribió un cuento, «Razón», sobre Cutie, un robot en una estación espacial al que le parece ridícula la idea de haber sido creado por humanos. «No lo digo en son de burla, pero ¡mírense! El material del que están hechos es suave y flácido, carece de duración y fuerza, depende de la ineficiente oxidación de materia orgánica para conseguir energía (…) Periódicamente entran en coma y la menor variación en la temperatura, presión del aire, humedad o intensidad de radiación compromete su eficiencia. Ustedes son provisionales. Yo, en cambio, soy un producto acabado. Absorbo energía eléctrica directamente y la utilizo con una eficiencia casi del cien por ciento. Estoy hecho de metal fuerte, estoy continuamente consciente y puedo soportar cambios ambientales extremos con facilidad. Estos hechos, con la obvia proposición de que ningún ser puede crear a otro ser superior a sí mismo, reducen su tonta hipótesis a cenizas», dice el desdeñoso Cutie a sus creadores.

Lo cual me lleva a pensar en Sophia, la androide creada por Hanson Robotics, una empresa estadounidense que diseña robots humanoides capaces de sostener una conversación. Sophia está hecha de silicona, puede realizar movimientos faciales y aprende de la interacción con las personas. Es la primera inteligencia artificial que tiene un pasaporte –es ciudadana de Arabia Saudita– y suele dar charlas ante un público de poderosos empresarios. Su creador, David Hanson, asegura que la inteligencia artificial debe evolucionar para mostrar rasgos

como la compasión y la empatía. Pero en su presentación en sociedad, en marzo de 2016, Hanson le preguntó a Sophia delante de las cámaras si quería destruir a los humanos. La respuesta de la androide llegó sin vacilar y dejó a su creador con la cara roja de vergüenza: «Okey, destruiré a los humanos». Si los robots están hechos a la imagen y semejanza de los hombres, no debería sorprender la respuesta de Sophia: evidentemente, los humanos tienen los robots que se merecen.


1 La angustia ante la imposibilidad de distinguir lo humano de la máquina está en un texto tan antiguo como «Horacio Kalibang o los autómatas», quizás el primer cuento latinoamericano sobre inteligencia artificial, escrito por el científico y autor argentino Eduardo Ladislao Holmberg en 1879.