27 de marzo de 2023
La estrella de la Inteligencia Artificial está en boca de todos. Sus respuestas sorprenden y dialoga como un ser consciente. ¿Tiene límites? ¿Cuáles son?
Lenguaje. Con celular o computadora se puede dialogar gratuitamente con la IA.
Foto: Shutterstock
ChatGPT, el modelo de lenguaje artificial que ha irrumpido en la escena pública, es capaz de hacer miles de tareas con una eficiencia y coherencia que sorprenden. La velocidad del éxito se debe en buena medida a que OpenAI, la empresa (hasta hace unos años una fundación sin fines de lucro) que desarrolla esta tecnología, haya abierto un sitio para que cualquier usuario pueda experimentar con ella. Esto ha permitido a la sociedad dimensionar el poder de esta Inteligencia Artificial (IA) para resolver cuestiones que, pensábamos, eran patrimonio exclusivo de la humanidad. Así es que muchos se agarran la cabeza viendo que sus trabajos pueden ser remplazados por IA o que alumnos universitarios muy probablemente aprobarían un examen si le pidieran las respuestas a ChatGPT.
Sin embargo, siempre hay que tratar de disipar el humo que envuelve las novedades tecnológicas, frecuentemente sobredimensionadas por el marketing y los medios. ¿ChatGPT es totalmente confiable? No, está lejos de ser infalible: si se le pregunta a GPT a qué se dedica el autor de esta nota, puede asegurar (erróneamente) que trabajó para la BBC, Wired y El País. O responder que el resultado de 67.893×3.772 es 256.682.476 (el resultado correcto es 256.092.396).
¿A qué se debe que el ChatGPT sea tan bueno a la hora de convencernos con una redacción sobre el peronismo o la astrofísica, pero no para resolver una multiplicación que a un humano le llevaría segundos con una calculadora?
Pura estadística
Sin duda, ChatGPT (que de momento utiliza la versión 3.5 de GPT y pronto pasará a la 4) es capaz de resolver tareas complejas de manera asombrosa. Cada vez más gente la usa para superar el pánico de la página en blanco sobre temas muy específicos y con extensiones o tonos determinados. Permite ahorrar horas a un programador que solo debe darle algunas instrucciones específicas para tener un programa funcional; si es bueno, podrá mejorarlo, pero ya tendrá buena parte del trabajo hecho.
ChatGPT no es la primera IA en popularizarse: todos conocemos el buscador de Google. También es común utilizar bots que desgraban entrevistas que, con una simple edición, dejan un resultado satisfactorio. También existen otras herramientas dedicadas específicamente a las imágenes, como Midjourney o Dall-e que dan mucho que hablar. Pero ChatGPT, si uno se distrae, genera la sensación de estar hablando con un ser coherente y reflexivo, algo muy difícil para una máquina basada en una lógica rígida. ¿Cómo lo logra realmente?
Los modelos de lenguaje son herramientas informáticas que funcionan en base a probabilidades obtenidas de una masa enorme de datos, prácticamente todo lo disponible en internet. En resumen, lo que hace ChatGPT, y que resulta tan convincente, es (simplificando) determinar qué palabra es más probable que siga luego de las anteriores.
Como explica en un trabajo Stephen Wolfram, del Instituto Tecnológico de California (Caltech), si uno escribe: «Lo mejor de la IA es su capacidad para», ChatGPT analiza millones de ejemplos y de esa manera determina que las palabras más probables de encontrar a continuación son «aprender» (4,5%), «predecir» (3,5%), «hacer» (3,2%), etcétera. Palabra a palabra, por estadística y gracias a los millones de ejemplos que tiene cargados, ChatGPT sonará como un humano consciente y pensante con buena información. Parece simple (de hecho es más complejo), pero la escala de la información disponible y la velocidad para procesarla es lo que permite resultados que dan vértigo.
Al mismo tiempo, esto también explica sus errores: ChatGPT es tan bueno con el lenguaje porque busca respuestas acertadas estadísticamente, pero cuando se le pregunta por una multiplicación concreta, que tiene una sola respuesta válida, intentará hacer lo mismo: por eso, si no cuenta con suficientes ejemplos puede dar una respuesta aproximada. Lo mismo ocurre con una persona sobre la que no hay suficientes datos (allí se abre también toda una cuestión sobre la privacidad que quedará para otra nota).
Creatividad
Así las cosas, no sería correcto afirmar que ChatGPT tiene conocimiento, creatividad o criterio: en realidad lo que hace es reproducir lo ya existente con retoques gracias a herramientas estadísticas y muchísimos datos, algo que puede generar problemas. Uno de ellos es que va a tener la tendencia a reproducir los sesgos que encuentra: si buena parte de la prensa insiste en que existen las razas humanas o que los inmigrantes sacan el trabajo a la gente, lo más probable es que lo reproduzca. Ya existe el antecedente de Tay, una IA de Microsoft lanzada en 2016 en Twitter para que interactúe con otros usuarios: 16 horas más tarde tuvieron que borrar su cuenta porque estaba haciendo afirmaciones racistas o reivindicando a Hitler gracias al entrenamiento (muchas veces intencionado) al que la sometieron los usuarios.
Para evitar esta deriva, ChatGPT tiene instrucciones que la hacen evitar temas delicados. Además necesita una enorme cantidad de atención y criterio humano, como el que le proveen trabajadores keniatas tercerizados a dos dólares la hora que se encargan de revisar las consultas que la IA detecta como delicadas y es mejor evitar. Para Open IA es fundamental no derrapar hacia el descontrol al que llevan los sesgos de los datos existentes y termina dependiendo, en última instancia, del criterio humano.
Desde cierto punto de vista, lo que hace ChatGPT es compactar el conocimiento humano en cada respuesta. Como lo explica una nota de The New Yorker, cualquier información al ser compactada pierde definición: de la misma manera que una foto que se pasa a JPG pierde más calidad cuánto más pequeño sea el archivo, cada respuesta va a simplificar lo hecho previamente por miles o millones de personas. De alguna manera, la IA siempre es conservadora: combina lo existente, pero sin crear nada «totalmente» nuevo.
Es este uno de los puntos en los que el debate se vuelve cada vez más fangoso, porque, al fin y al cabo: ¿qué es la creatividad humana? ¿No está siempre determinada por lo que se dijo antes? ¿Un artista hace algo más que recombinar lo que otros ya hicieron?
Según puede leerse en internet, Jorge Luis Borges afirmó: «Uno no es lo que es por lo que escribe, sino por lo que ha leído». Al ser consultado por la fuente de esa cita, ChatGPT primero la ubica en «La biblioteca de Babel» y luego (al ser confrontada con el error) en «El escritor argentino y la tradición». Pero finalmente reconoce que la frase «a menudo se atribuye a Borges, pero en realidad no se encuentra en ninguno de sus ensayos. Lamentablemente, parece ser una de esas citas falsas que se difunden en internet sin una fuente confiable».
Lo haya dicho Borges o no está claro que la frase aplica también a ChatGPT.
16 comentarios