Sociedad | INTELIGENCIA ARTIFICIAL

No todo lo que brilla es verdad

Tiempo de lectura: ...
Esteban Magnani

La (supuesta) foto del papa con una campera inflable muestra uno de los peligros de la IA, al tiempo que permite pensar sus usos, límites y efectos.

¿Real o fake? Una imagen falsa encendió una nueva polémica en torno a la IA.

A fines de marzo circuló una imagen del papa Francisco con una campera inflable blanca, extravagantemente moderna pero con un “diseño vaticano” muy verosímil. La calidad de la imagen era impecable y nada permitía sospechar, al menos al primer golpe de vista, que era falsa. Luego de su viralización algunos medios chequearon la foto y, tratándose de uno de los personajes más famosos del mundo, no tardaron en comprobar que el papa nunca había usado algo así. 
A las pocas horas un obrero de la construcción estadounidense entrevistado por BuzzFeed aseguró que le había parecido divertido publicar esa imagen creada por medio de un servicio de Inteligencia Artificial (IA) llamado Midjourney, el cual permite pasar a imagen una descripción hecha solamente con texto. Para algunos medios esa imagen y otras en las que aparecía Donald Trump arrestado son los dos primeros grandes casos de desinformación originada por imágenes creadas con IA. Y seguramente no serán los últimos.

IA para todes
Desde fines del año pasado distintas herramientas de IA, sobre todo ChatGPT, Midjourney y Dall-e, atravesaron la burbuja de los especialistas en tecnología para llegar al conjunto de la sociedad. Así muchos no-expertos comenzaron a jugar con ellas y comprobaron que se les pueden pedir exámenes con resultados razonables, comenzar investigaciones, buscar información resumida, escribir artículos, crear imágenes para folletos, publicidad, producir software, entre otras cosas. Pero lo mismo que resulta una ayuda, es también una amenaza: ¿cuántos trabajos pueden ser remplazados o reducidos significativamente con IA? ¿Por qué no pedirle a la IA que haga nuevos virus informáticos? ¿O que construya notas o libros, incluso con imágenes como pruebas, que demuestren que determinada persona es corrupta?
Son tantas las nuevas preguntas que un grupo conformado por más de mil intelectuales, especialistas en tecnología, investigadores y empresarios publicó una carta pidiendo que se pausara el desarrollo de este tipo de tecnología por al menos seis meses hasta que se discutan mecanismos de control frente a una tecnología que «podría representar un cambio profundo en la historia de la vida sobre la Tierra y que debería ser planeado y gestionado con considerable cuidado y recursos». 
¿Qué temen los expertos? Estos sistemas pueden competir con el desempeño de los humanos en muchos campos, aseguran. «¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y mentiras?». Este tipo de modelos informáticos utiliza millones de ejemplos que retoman y adaptan para crear productos estadísticamente verosímiles (como el del papa encamperado). Lo mismo que ya se hace en cuánto a campañas de desinformación podría automatizarse para poner miles de bots a rebatir determinados argumentos que circulan por la red, para responder a la gente que se quiere silenciar y «pudrir» el debate hasta niveles aún más problemáticos para la vida social que los actuales.
Friedrich Nietzsche afirmaba que la verdad no es más que la mentira más eficiente a la hora de convencer a la sociedad: quien logre saturar los canales adecuados con información coherente y constante acerca de un tema tiene posibilidades de construir realidades paralelas para miles de usuarios. O, al menos, producir tanto ruido y confusión que muchos abandonen cualquier interés por los hechos.
La carta generó ruido mediático, pero parece tener pocas posibilidades de afectar el curso de los hechos más allá de un poco de cosmética y relaciones públicas. 
Desde otra vereda, con especialistas menos conocidos por los medios, sostienen que el pedido de los expertos tiene varios problemas. Por un lado ya no se trata de pausar el desarrollo porque las tecnologías actuales como GPT4 ya son problemáticas. Estos expertos coinciden en que el impacto de la IA en las campañas de desinformación puede ser grave, así como el impacto en el trabajo y en la seguridad (por ejemplo, de gente preguntando a ChatGPT cómo tratar una enfermedad, algo que ya ocurrió).
Pero el mayor problema con el pedido es que termina contribuyendo a generar la sensación de que la IA realmente es tan poderosa como parece. Ese miedo puede ser usado por los desarrolladores de IA para cerrar aún más el código de sus modelos y complicar aún más cualquier auditoría. Por otro lado, seguir hablando del poder de la IA contribuye a generar una confianza excesiva en un sistema que solo es tan bueno como los datos de los que aprendió. 
Aumentar la confianza en la IA es un problema, como demuestran, entre otras cosas, los accidentes que siguen produciendo los vehículos autónomos a pesar de los millones que se invierten. Por eso hay quienes llevan años protestando contra esa mirada crítica que termina fortaleciendo una imagen exagerada de la IA. No es esta la primera vez, ni será la última, en que una tecnología es presentada como la solución a todos los problemas porque eso atrae mucho dinero. La IA es poderosa para hacer productos que parecen humanos a primera vista. El resto habrá que verlo.

Más concentración
En los últimos siglos surgieron numerosas tecnologías disruptivas capaces de simplificar el trabajo, aumentar la productividad o desplazar trabajadores. De hecho, ese era uno de los sueños de la clase trabajadora: aumentar la productividad para reducir el tiempo de trabajo y aumentar el de ocio. Desgraciadamente, no es eso lo que viene ocurriendo en un mundo en que el crecimiento del producto global es apropiado de manera desigual en favor de los más ricos. Gracias a la IA, en vez de tener diez empleados, un profesional, por ejemplo un arquitecto, un abogado, un editor, un programador, podría pedir una primera versión del producto a una IA, chequearlo y afinarlo personalmente. 
Según algunos optimistas, en todo ciclo de innovación se terminaron creando también nuevos trabajos, pero en este caso se crearán en las empresas que se dedican a automatizar los trabajos de los demás, ubicadas en el norte global. Los trabajadores desplazados del tercer mundo deberán dedicarse a tareas peor pagadas aún no remplazadas por software. El resultado, todo indica, será una profundización de la tendencia a concentrar los ingresos en un porcentaje ínfimo de la población del primer mundo.
Ninguna tecnología determina sus usos y efectos en su propia naturaleza, ni es independiente de las variables sociales, económicas y políticas que la contienen. Cualquier lectura que se tenga sobre la IA deberá tenerlo en cuenta.

Estás leyendo:

Sociedad INTELIGENCIA ARTIFICIAL

No todo lo que brilla es verdad

2 comentarios

Dejar un comentario

Tenés que estar identificado para dejar un comentario.