Sociedad | Reglas nuevas

Sin secretos para la IA

Tiempo de lectura: ...
Esteban Magnani

¿Están protegidas las charlas de un usuario con aplicaciones como el GPT? Un reciente caso judicial reactualiza la tensión entre los modelos de negocios digitales y la «privacidad».

Datos regalados. La tensión entre lo privado y las necesidades tecnológicas y comerciales de las empresas es característico de los modelos de negocios de las plataformas.

Foto: Shuttestock

Las charlas con un médico, un psicólogo o un abogado están protegidas por normas de confidencialidad: lo que allí se diga está protegido de la mirada de los otros y no podrá utilizarse en contra de uno. ¿Pero qué pasa cuando se consulta a una IA Generativa como si se tratara de alguno de estos profesionales?

Ante el creciente uso de distintas herramientas de IA para tareas específicas la pregunta se vuelve cada vez más relevante. Estas plataformas necesitan la interacción con los humanos para ser entrenadas y cada conversación es un insumo fundamental también para conocer mejor al usuario y responder de acuerdo a sus expectativas particulares. Como se trata de herramientas estadísticas su performance mejora con la acumulación de datos y la creación de perfiles, vitales para calcular la probabilidad de que una respuesta resulte útil (o al menos lo parezca).


Modelos de negocios
Este tipo de tensión entre privacidad y necesidades tecnológicas y comerciales de las empresas es característica de los modelos de negocios de las plataformas. El buscador de Google, las suites de herramientas online de Microsoft o Alphabet, los servicios de mensajería de Meta, las compras de todo tipo de productos en Amazon, el uso constante de celulares, etcétera, permiten que las corporaciones acumulen un sinfín de datos de todo tipo que usan con fines comerciales, algo que ya se ha naturalizado. Hace más de una década, en 2010, Mark Zuckerberg explicaba que «la privacidad ya no es lo que era». Su diagnóstico se renueva con las plataformas de IA Generativa.

Pero esos datos no solo son útiles para ganar dinero: en 2013 Edward Snowden, el exespía de la NSA demostró que lejos de violaciones quirúrgicas para evitar ataques terroristas, los servicios de inteligencia estadounidenses trabajaban junto a las plataformas para peinar y procesar toda la información que estas tenían. En un país que se ufana de proteger las libertades civiles, el presidente Barack Obama llegó a decir, poco después del escándalo, que no se puede tener «un 100% de seguridad y también un 100% de privacidad». Desde entonces, todas las promesas de privacidad tecnológica resultan poco verosímiles.

Una vez que algo se digitaliza, desde una palabra a una foto o un audio, resulta muy difícil dar garantías sobre su control. Las plataformas de servicios de IA Generativa no son la excepción. Pese a los escándalos y las señales preocupantes por los usos no deseados de los datos compartidos con las corporaciones digitales, los usuarios tampoco parecen atemorizados por los efectos secundarios de exponerse ante las plataformas o simplemente ya no pueden evitar utilizarlas.


Una medida judicial
En este contexto llegó una orden judicial para que OpenAI, la empresa que desarrolla ChatGPT, guarde todos los datos acumulados durante las interacciones con los usuarios. La exigencia proviene de la jueza Ona Wang, encargada de resolver la demanda que el diario The New York Times lleva adelante contra la empresa por la utilización de contenidos propios para entrenar sus modelos de IA Generativa.

Hace años que, en su afán por hacer crecer los datos de entrenamiento, las corporaciones tecnológicas toman todo el material digital disponible sin importar límites legales de ningún tipo. Incluso cuando en el Reino Unido se plantearon la necesidad de tomar medidas para proteger contenidos de empresas y autores surgieron voces con vaticinios apocalípticos: Nick Clegg, ex vice primer ministro de ese país y exejecutivo de Meta, aseguraba que si se aprobaba una normativa más restringida solo en Gran Bretaña, «básicamente se estaría matando a la industria de la IA en el país en un día».

La nueva exigencia de la jueza norteamericana choca con las promesas de privacidad de OpenAI y la legislación europea que protege a los usuarios, algo que impactará en el viejo continente. La causa judicial requiere conservar pruebas para confirmar la denuncia del diario de que se está usando su material y, eventualmente, determinar si esto efectivamente constituye un delito. El caso seguramente sentará precedente para otros profesionales que exigen protección para lo que consideran un despojo injustificable.

Históricamente los nuevos modelos de negocios desarrollados por las corporaciones digitales generaron tensión con empresas tradicionales y trabajadores que ven avasallados sus derechos y reducidos sus ingresos. El argumento suele ser que la tecnología «vino para quedarse» o que no se puede luchar contra ella, como si se tratara de una realidad emanada de fuerzas superiores y no de negocios que utilizan todo tipo de herramientas para abrirse un espacio en el mercado gracias a la penetración tecnológica, los vacíos legales y un lobby feroz para seducir a los políticos. En EE.UU., las corporaciones además sostienen que los obstáculos para el desarrollo de herramientas de IA Generativa favorecen a China en la disputa geopolítica global.

En medio de estas tensiones políticas, económicas y legales, la importancia de la privacidad como derecho básico y para reducir la manipulación de la sociedad parece un tema menor, aunque cada tanto se reactualice por algún escándalo o planteo legal. Cabe recordar que pese a toda la evidencia presentada por Edward Snowden acerca de un espionaje masivo por parte de varios países occidentales sobre su propia población y la de sus aliados, poco cambió y el exagente tuvo que refugiarse en Rusia para no ser encarcelado.

Mark Zuckerberg tenía razón: la privacidad no es lo que solía ser.

Estás leyendo:

Sociedad Reglas nuevas

Sin secretos para la IA

1 comentario

Dejar un comentario

Tenés que estar identificado para dejar un comentario.