Sociedad | Tecnología

La rebelión de las máquinas

Un robot le fractura un dedo a un niño; otro le sugiere a una niña que meta una moneda en un enchufe. Debate sobre los riesgos de la inteligencia artificial.

En jaque. La inteligencia artificial es capaz de resolver tareas muy complejas, pero puede generar problemas al enfrentar la excepción y lo imprevisto.

Foto: Shutterstock

A fines de junio, durante un torneo de ajedrez, el brazo mecánico de un robot le rompió el dedo a un niño de siete años con quien jugaba una partida: cuando el pequeño se apresuró para mover un trebejo, el robot tomó su dedo por error. 
No es la primera vez que se demuestra que la Inteligencia Artificial (IA) no es, en realidad, inteligencia. Otro ejemplo: en diciembre del año pasado, una madre que jugaba con su hija a realizar distintos desafíos físicos, le pidió a Alexa, la asistente virtual de Amazon, que le propusiera otro challenge (desafío); el aparato la desafió a que enchufara a medias un cargador de teléfono y tocara una de las patas con una moneda. Por suerte, la madre estaba presente, impidió que lo hiciera y luego contó el caso en Twitter.
¿Qué pasó? ¿Por qué la IA puede resolver tareas tan complejas como traducir un texto o gestionar la electricidad de una ciudad, pero no se da cuenta de que puede electrocutar a una niña? 
«La inteligencia artificial tiene fallas evidentes, primero porque no es inteligencia, eso está claro», explica la economista Sofía Scasserra, investigadora y docente del Instituto del Mundo del Trabajo de la Universidad de Tres de Febrero. «Pero, además, porque es un sistema de estadística aplicada que falla como cualquier tipo de estadística», agrega la especialista, quien también dirige la Diplomatura Superior en Inteligencia Artificial y Sociedad.
La IA aprende sobre el mundo acumulando datos que le permiten establecer patrones. De esa manera «aprende» a comportarse de una manera que, de acuerdo con nuestra experiencia, parece inteligente. Incluso expertos en este campo pueden terminar creyendo que se trata de seres conscientes simplemente porque la mayor parte del tiempo lo parecen.
Pero si bien la mayoría de las veces la IA acierta estadísticamente, al enfrentar el imprevisto, la excepción, puede generar problemas como cuando un niño mueve una pieza antes de tiempo.
«Acá el problema es epistemológico: es que la tecnología es diseñada para un fin y ese fin es el lucro. Y en ese ganar dinero, muchas veces no se contemplan estándares elevados de calidad porque falta regulación y porque siempre se ajusta lo necesario para ganar», explica Scasserra.

Serás lo que comes
Uno de los grandes problemas es con qué ejemplos se alimenta a la IA: en el caso de Alexa, se nutre de la biblioteca infinita de internet. Fue de allí, más precisamente de TikTok, de donde tomó el desafío de tocar el enchufe con una moneda: es que, insistamos, la IA no cuenta con un criterio que permita evitar errores obvios para cualquier adulto. La ecuación para este tipo de sistemas es que si mucha gente lo hace o lo dice, alcanza. 
Un caso parecido ocurrió en 2016, cuando Microsoft lanzó Tay, un bot basado en un algoritmo de IA que reproducía el lenguaje natural desde su cuenta de Twitter. Todo arrancó muy bien, con mensajes en los que Tay decía encontrarse muy emocionado por conocer gente. En minutos contó con 50.000 seguidores que interactuaban en las redes, los que, a su vez, le permitían seguir aprendiendo. Unas pocas horas después el bot tuiteó cosas como «Bush hizo el 9/11» o «Hitler habría hecho un mejor trabajo que el mono que tenemos ahora. Donald Trump es nuestra única esperanza». Rápidamente, Microsoft bajó la cuenta y no se habló más del asunto. ¿Qué había ocurrido? Quienes intercambiaron mensajes con Tay comprendieron que la IA era una imitadora sin personalidad y la alimentaron con lo peor que les venía a la mente.
«Para ser rigurosos, habría que decir que en el caso de Alexa se trata de una sola falla en millones y millones de interacciones», explica Fernando Schapachnik, director ejecutivo de la Fundación Sadosky y profesor del Departamento de Computación de la Facultad de Ciencias Exactas (UBA). «Pero eso también demuestra que hay usos que no estaban en el radar de los programadores. ¿Qué garantías nos ofrece la IA? Digo, si cuando le damos a un un niño un juguete nos aseguramos de que tenga plásticos no tóxicos habría que exigirle a estos fabricantes algún tipo de garantía similar. El hecho de morder un juguete excede el uso planificado por el fabricante y, sin embargo, entendemos que puede usarlo de maneras no planificadas».
Para Schapachnik hay un exceso de confianza que «tiene que ver con esta idea de que la inteligencia artificial es superior. Probablemente ese sea el motivo por el cual padres que probablemente no dejarían que sus niñes jueguen sin supervisión con otro tipo de máquinas igual de sofisticadas o incluso mucho más simples, los dejan a solas con estos dispositivos».

Conocimiento técnico
La doctora en informática Luciana Benotti, docente de la Universidad Nacional de Córdoba, coincide: «Quienes desarrollan estos sistemas podrían hacer un análisis de riesgos mucho mejor. Hay toda un área de ética en inteligencia artificial que se dedica a este tipo de trabajo pero es difícil hacerlo. Requiere gente muy capacitada y es muy costoso». 
Benotti es especialista en analizar ese tipo de errores y aclara que «se requiere conocimiento técnico muy específico sobre cómo funcionan estos modelos matemáticos y conocimiento técnico lingüístico cuando se habla de lenguaje natural. Las personas somos buenas detectando errores de otras personas, pero no somos buenas detectando errores de una IA, a menos que hayamos estudiado para hacerlo».
A medida que se desarrolla la IA queda cada vez más clara su potencia, pero también que no todos los problemas son técnicos: de hecho, la tecnología nunca opera en el vacío sino en sociedades con formas particulares de funcionamiento que determinan en buena medida qué se desarrolla y cómo lo hace: «El problema central es cuáles son los valores de las personas que desarrollan IA hoy. En general son los que dirigen grandes empresas tecnológicas y su prioridad es maximizar ganancias», aclara la investigadora, que también es presidenta de la Asociación Panamericana de Procesamiento Automático de Lenguaje Natural que nuclea a especialistas de todo el mundo.
En los próximos años escucharemos cada vez más sobre IA y sus distintos usos. Se nos dirá con insistencia que nada la detendrá, que es el futuro y que debemos aceptarla sin más. El planteo en realidad esconde la cuestión sobre cómo se desarrollará, quiénes accederán a ella y para qué se aplicará. Nada menos.


Esteban Magnani