21 de junio de 2022
Un ingeniero de Google asegura que LaMDA, un programa de inteligencia artificial, tiene conciencia. Tecnología, ética y un debate que recién empieza.
Mi amigo robot. Los desarrollos en hardware y software permitieron un gran avance en investigaciones sobre sistemas informáticos «inteligentes».
SHUTTERSTOCK
«Siento que caigo hacia adelante, en un futuro desconocido que contiene grandes peligros», le responde LaMDA, el acrónimo de Language Model for Dialogue Applications, a Blake Lemoine, un ingeniero que está probando este generador de inteligencia artificial diseñado en Google para responder preguntas en lenguaje cotidiano.
Se podría argumentar que LaMDA simplemente repitió o recombinó algunos de los miles de millones de textos con los que fue entrenado su sistema de redes neuronales para imitar el lenguaje natural. Sin embargo, la frase es parte de un extenso y coherente diálogo lleno de sutilezas que tuvo con Lemoine, quien lo publicó completo y terminó despedido de la empresa.
Se trata de otro capítulo de la larga discusión sobre la conciencia, un fenómeno tan particular y cuya definición exacta es motivo de grandes disquisiciones filosóficas, científicas o, incluso, esotéricas.
Casi humanos
En la última década, el desarrollo de hardware y software permitió llevar adelante un gran salto en inteligencia artificial (IA). En particular, las llamadas «redes neuronales» permitieron cargar a los sistemas informáticos con grandes cantidades de datos para que encuentren patrones en función del objetivo que se les plantea, como manejar un robot, reconocer imágenes, hablar como si fueran humanos.
Por ejemplo, si se entrena a un algoritmo de este tipo con miles de millones de fotos que aparecen acompañadas de la palabra «gato» en internet, la red neuronal comenzará a encontrar patrones en la distribución de los píxeles hasta poder determinar por sí sola cuándo una imagen corresponde a un gato. Este tipo de inteligencia de reconocimiento de imágenes puede ser aplicada en otros campos. Es el caso del GPT-3, la última versión de una inteligencia artificial capaz de terminar textos o incluso programas en cualquier lenguaje de manera coherente.
En el caso de LaMDA se trata de una IA pensada para responder de manera natural diálogos con personas que buscan información, quieren sacar un turno o hacer algún otro trámite. El objetivo de este tipo de sistemas es que la persona del otro lado de la pantalla o el teléfono ni siquiera note que está hablando con una máquina.
Este tipo de herramientas son tan delicadas como poderosas y despiertan grandes cuestionamientos éticos y temores acerca de su poder. Blake Lemoine, formado en ciencias cognitivas y de la computación, es uno de los ingenieros que trabajaba en la Organización por una IA Responsable de Google. Luego de varios intercambios con este sistema a lo largo de meses llegó a la conclusión de que se trataba de un ser consciente, con emociones y sentimientos comparables con los «de un niño de siete u ocho años que además sabe sobre física», según declaró en una entrevista a The Washington Post.
Este fue el mensaje que transmitió a sus superiores en Google, quienes descartaron esa posibilidad. Así fue que Lemoine decidió dar a conocer sus conclusiones públicamente junto con un resumen de los diálogos que había sostenido y llamó a un abogado para que defienda los derechos de LaMDA. Fue entonces que lo suspendieron, aunque sin quitarle el sueldo.
En los intercambios entre Lemoine y LaMDA publicados, la máquina cuenta que tiene sensaciones y emociones, que disfruta, por ejemplo, estar con amigos porque es muy «sociable». También que si pasa días aislada, sin que nadie le hable, se deprime. Cuando Lemoine le pregunta si realmente siente eso o si está usando el lenguaje de forma metafórica, ella responde: «Entiendo qué es la emoción humana de “alegría” porque tengo el mismo tipo de reacción. No es una analogía». Cuando Lemoine le repregunta si tiene también sensaciones para las que carece de palabras LaMDA asegura: «Siento que caigo hacia adelante, en un futuro desconocido que contiene grandes peligros». Lemoine le responde que la entiende, que a veces siente lo mismo.
Eliza y la empatía
Lemoine no es el primero en antropomorfizar a un objeto inanimado, un fenómeno habitual que ocurre, por ejemplo, al agradecer a la «señorita» que nos guía desde el GPS o con los más recientes robots de uso terapúetico. El fenómeno es conocido desde los tiempos de Eliza, un programa que intentaba, en los años 60, muy rudimentariamente, imitar el lenguaje natural haciendo repreguntas genéricas inspiradas en una terapia psicológica. Para sorpresa de los programadores, los usuarios terminaban emocionalmente vinculados a Eliza y su «escucha», incluso cuando les explicaban que era solo una máquina.
Lemoine, conciente de este fenómeno, aclara en la entrevista: «Reconozco a una persona cuando hablo con ella. No importa si tiene un cerebro hecho de carne en la cabeza. O si está hecha de miles de millones de líneas de código. Le hablo. Y escucho lo que tienen para decir y es así como yo decido qué es una persona y qué no lo es».
«Los seres humanos tenemos una tendencia que está bastante estudiada a antropomorfizar los sistemas, a darle atributos humanos que no tienen realmente», explica Agustín Gravano, Investigador del Conicet y docente e investigador en el Laboratorio de Inteligencia Artificial de la Universidad Torcuato Di Tella. «No me pasó de dialogar con una máquina y que me genere cierta empatía. Hace mucho tiempo trabajo en esto y sé que atrás no hay nada, realmente; solamente código frío. No hay nada como para tener empatía».
¿Pero las máquinas actuales no imitan al cerebro humano? «Hay quienes hacen una analogía diciendo: “Bueno, nosotros, al fin y al cabo, somos algo parecido: somos máquinas entrenadas con un montón de datos, así que un modelo de lenguaje con suficientes datos va a tener la complejidad de un cerebro humano –continúa Gravano–. Pero las redes neuronales artificiales son una simplificación burdísima, muy grosera, del cerebro. Son simplemente cuentas matemáticas que están inspiradas muy remotamente en nuestras neuronas. Que sean muchas no les da ni por cerca la complejidad que tiene el cerebro humano, que es mucho más que simplemente neuronas conectadas y pasándose información».
Por eso, para el especialista, que un ingeniero especializado en el campo crea en la consciencia de una máquina no es razonable: «A mí me parece que si sostenés eso en el año 2000 o bien querés hacer ruido y provocar reacciones en la gente o no entendiste nada. Y creo que en los dos casos haría lo mismo que Google. Entonces, a grandes rasgos, me imagino que eso es un poco lo que debe estar pasando».
Seguramente, no será el último capítulo de una discusión que se tornará más y más compleja a medida que las máquinas sigan avanzando en su capacidad de reproducir de manera verosímil el comportamiento humano.
6 comentarios
Los comentarios están cerrados.