Sociedad | TECNOLOGÍA

Los límites de la IA

Tiempo de lectura: ...
Esteban Magnani

Ni inteligente ni artificial: aunque parece pensar, es solo estadística de un nivel superior y fue entrenada con productos del intelecto humano. Sus avances sorprenden día a día. ¿Hasta dónde puede llegar?

Foto: Shutterstock

¿Hasta dónde puede llegar la Inteligencia Artificial Generativa (IAG)? Desde que se lanzó ChatGPT a fines de 2022 parecería que nada puede detenerla. Todos los días aparecen herramientas que nos sorprenden por su capacidad de realizar dibujos, imitar voces, responder preguntas o programar. Las empresas prometen que esta tecnología revolucionará todo e incluso, sin ruborizarse, que resolverá problemas de la humanidad como el calentamiento global o la pobreza. Para estos tecnoempresarios, la IAG es un futuro inevitable y quien no lo acepte es un negador o un nostálgico. Sin embargo, un análisis crítico debería recordar cómo terminaron promesas recientes del mundo tecnológico, como las criptomonedas, los NFT, el metaverso o los vehículos autónomos anunciados como inminentes y masivos hace más de 15 años. 

La inteligencia artificial es una disciplina científica de varias décadas, pero solo en los últimos años contó con los recursos técnicos para hacerse realidad. Uno de los primeros ejemplos poderosos es el buscador de Google, que mejoró gracias a la prueba y error al que lo someten los usuarios. Así va captando y acumulando inteligencia humana para responder con más eficiencia. 

La IAG va un paso más allá: toma lo existente para entrenarse y encontrar patrones para producir contenidos nuevos. Por ejemplo, los modelos de lenguaje utilizan textos de libros, foros de internet, chats y documentos para encontrar patrones y, muy básicamente, calcular cuáles son las posibilidades de que una palabra siga a la otra a la hora de generar contenidos. Es decir que si bien parece inteligente o incluso «consciente», la IAG no deja de ser estadística de un nivel superior. Por eso genera la ilusión convincente de estar pensando. Por otro lado, tampoco es artificial ya que depende de ser entrenado con productos de la inteligencia humana.


Alucinaciones
Las distintas IAG ofrecen productos que nos dejan asombrados y que pueden servir para muchas cosas. Por ejemplo, hay estudiantes que los utilizan para sus exámenes. El problema que encuentran es que la estadística puede producir, cada tanto, algo posible pero erróneo, como le ocurrió a un abogado que luego fue sancionado por inventar jurisprudencia inexistente. Estos productos, llamados «alucinaciones», no son algo solucionable. De hecho es probable que empeore porque los modelos de lenguaje crecen en volumen y necesitan cada vez más datos de entrenamiento, algo que dificulta más aún la posibilidad de seleccionar solo materiales de calidad. El mismo Sundar Pichai, CEO de Alphabet, corporación que contiene a Google, reconocía en una entrevista: «La alucinación sigue siendo un problema sin resolver. En cierto modo, es una característica inherente. Es lo que hace que estos modelos sean tan creativos».

Esto plantea un problema: ¿puede una tecnología sorprendente que produce contenidos falsos ser utilizada a nivel profesional? De momento la pregunta está abierta. Por un lado hay una fuerte reducción de costos si se reemplaza a trabajadores humanos con IAG, pero por el otro se producen errores tontos. Cualquiera que haya visto, por ejemplo, los subtitulados automáticos de una película se da cuenta de que inventa cosas. 

Otro ejemplo: los lenguajes de programación, fuertemente codificados, parecen un rubro ideal para el uso de IAG. De hecho, existen numerosas herramientas que a partir del lenguaje natural pueden hacer un programa. En la práctica, los informáticos reconocen que hay ciertas tareas simples en las que permiten ahorrar tiempo pero, en proyectos más complejos, comprender qué error cometió el asistente puede llevar más tiempo que programar uno mismo. Por ahora las empresas están remplazando a muchos programadores, pero no está claro aún hasta dónde llegarán por ese camino. 

En caso de producirse efectivamente una sustitución masiva se plantea otro problema: el daño cognitivo que eso produce. Un estudio reciente del MIT señala que los estudiantes que utilizan IAG prácticamente no desarrollaban habilidades mentales en comparación con quienes no las utilizan y que esto empeora con el paso del tiempo. Es decir que el uso de IAG en educación es un poco como ir al gimnasio y utilizar una grúa para levantar pesas.

Sin embargo, desde el punto de vista económico, en áreas de poco riesgo el uso de IAG puede ser rentable a corto plazo. Por ejemplo, puede utilizarse para hacer una publicidad gráfica, componer una canción, subtitular una película, reemplazar un locutor o un ilustrador… El problema de este modelo es que en el mediano o largo plazo impide el aprendizaje de las nuevas camadas de profesionales que saben cómo hacer las cosas. En la medida en que las IAG efectivamente sustituyan masivamente trabajo humano escasearán los productos de la inteligencia humana y deberán entrenarse con productos de otras IAG lo que aumentará las posibilidades de sesgos, «alucinaciones» y otros errores. Por entonces quedarán pocas personas con el conocimiento necesario para detectarlos y corregirlos. 

Las grandes empresas tecnológicas de occidente están lanzadas a toda velocidad en el desarrollo de las IAG en una competencia brutal al interior de Estados Unidos y contra los productos chinos. El modelo de desarrollo elegido tiene consecuencias ambientales, sociales, políticas y económicas que ya pueden percibirse. Y en caso de concretarse la promesa de que la IAG aumentará brutalmente la productividad, el desafío será encontrar los mecanismos políticos para que el beneficio se comparta con toda la humanidad y no se lo apropien solamente un puñado de corporaciones.

Estás leyendo:

Sociedad TECNOLOGÍA

Los límites de la IA

Dejar un comentario

Tenés que estar identificado para dejar un comentario.