Opinión

Martín Becerra

Doctor en Ciencias de la información

Fascinación, pánico y oportunidad

Tiempo de lectura: ...

Boom de la IA. Una oportunidad para analizar y regular la relación entre las nuevas tecnologías y la sociedad.

Foto: Shutterstock

La Inteligencia Artificial (IA) rima con fascinación, pánico moral y adoración religiosa. La rima no es fonética sino conceptual. La idea de que los avances tecnológicos en su formato presente son un destino inalterable que sustrae todo poder de agencia (de incidencia en su propia realización) a los individuos y a sus organizaciones públicas o privadas se repite en documentales como The Social Dilemma y en los previsibles sermones escritos y audiovisuales con vocación de alto impacto. Así, como no se podría modificar el destino apodado «infocracia» y regenteado hasta hoy por Google, Meta, Amazon, Microsoft y Apple, no cabría otra posibilidad más que relajarse y gozar mientras la violación de los derechos de protección de datos personales, de libertad de expresión y de no discriminación, y los abusos contra consumidores y participantes de interacciones culturales y productivas se normalizan como paisaje cotidiano.
Pero la masiva repercusión del ChatGPT sacudió el consenso conformista. Algo parece fuera de eje. En pocas semanas se multiplicaron las advertencias del sector público y –lo que es novedoso– de voceros notorios del ámbito privado respecto de los riesgos y la falta de controles a la IA, lo que puede traer consecuencias serias para nada menos que «la historia de la vida en la Tierra», según reza la carta abierta difundida por el Future of Life Institute (FLI) y firmada por empresarios, lobbistas y desarrolladores de tecnología encabezados por el actual dueño de Twitter, Elon Musk, Steve Wozniak (co-fundador de Apple), Jaan Tallinn (co-fundador de Skype) y Max Tegmark (MIT) en la que piden que las compañías y laboratorios de IA pausen inmediatamente durante al menos 6 meses el entrenamiento de sistemas como el ChatGPT.

Regulaciones
Desde hace ya un par de años, la UNESCO, la Unión Europea, la OCDE y gobiernos de otras regiones del mundo vienen reclamando la aplicación de «principios éticos» y, en el caso de Europa, proponiendo marcos regulatorios para las tecnologías que usan IA. Si bien el tránsito desde la adopción de una perspectiva ética hacia la consagración de derechos puede ser sinuoso, el debate sobre apropiaciones e impactos de tecnologías es condición de posibilidad para ambas.
Para la UNESCO, junto con la ampliación de horizontes en el procesamiento de volúmenes de datos e informaciones inimaginables en fechas cercanas como los comienzos de este siglo, la IA puede conducir a un aumento de los prejuicios de género y étnicos, a amenazas significativas contra la privacidad, la dignidad y la capacidad de acción, y a peligros de la vigilancia masiva. Todo ello motivó la Recomendación sobre Ética de la IA a fines de 2021, adoptada en la Asamblea General del organismo.
Ninguna tecnología carece de gravitación social. La caja negra de la IA es un acervo de datos e informaciones cuya recolección y procesamiento reproducen virtudes y defectos de las sociedades y personas que los produjeron. Su amplificación en escala amenaza la supervivencia de decenas de millones de puestos de trabajo, como insiste en sus análisis el presidente de la Fundación Sadosky, Fernando Schapachnik.
Claro que hay un peligro complementario. El eventual reemplazo de personas por máquinas –que ha ocurrido en otras revoluciones tecnológicas, desatando procesos que tuvieron características distintas a la etapa actual– está guiado más por los marcos socioeconómicos de incorporación de tecnologías que por los atributos intrínsecos de estas. La sustitución ocurre siempre que la tecnología sea más barata que la precarización laboral, y que la previsión de incremento de productividad lo justifique. La IA puede sustituir empleos o bien profundizar su precarización mediante la amenaza de inminente reemplazo.
Es difícil suponer que un negocio consistente en innovar en servicios y aplicaciones basados en la explotación de datos de miles de millones de personas y organizaciones, estructurado con efectos de red que potencian la concentración excesiva del mercado, detendrá su vertiginosa carrera incluso a expensas de cuestiones tan sensibles como la clonación humana o la difuminación más sofisticada de las fronteras entre hechos y su tergiversación, si no hay reacción por parte de Estados, organizaciones de la sociedad civil y actividades productivas dañadas por tipo de evolución que adoptan las fuerzas y actores directrices de la economía digital.

Carrera fuera de control
«La implementación de IA debe cumplir con los principios rectores de los derechos humanos, respetar y representar diferencias culturales, geográficas, económicas, ideológicas, religiosas entre otras, y no reforzar estereotipos o profundizar la desigualdad», sostiene la Declaración de Montevideo promovida en marzo pasado por científicos de datos, activistas digitales y gestores de políticas tecnológicas latinoamericanos, quienes llamaron a «integrar cabalmente las particularidades de las culturas latinoamericanas en la creación de tecnologías de IA para la región; una creación pensada para y con los latinoamericanos, valorando su participación en investigación y desarrollo, y no solo como meros productores de datos en bruto o anotaciones manuales con bajo valor agregado», y a «fortalecer la soberanía de los países latinoamericanos con respecto a las cuestiones estratégicas y regulatorias de la IA».
Este pronunciamiento con acento latinoamericano se distingue de la carta de empresarios, lobistas y desarrolladores porque es más enfático en derechos ciudadanos y en amenazas a la soberanía de pueblos y estados, pero coincide con la carta del FLI en parte del diagnóstico. Las compañías desarrolladoras de IA, como OpenAI, entraron en una carrera fuera de control para implementar sistemas poderosos sin planificación o control de sus riesgos para el empleo, para la salud, para el acceso a la cultura y para la curaduría de información. «¿Deberíamos dejar que las máquinas inunden nuestros canales de información con propaganda y falsedad?», se preguntan los más de mil firmantes encabezados por Elon Musk.
La carta del FLI se atreve a conminar a los gobiernos: la moratoria de 6 meses en «el entrenamiento de los sistemas de IA más potentes (…) debe ser pública y verificable, e incluir a todos los actores clave. Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir e instituir una moratoria». Y en pocos días se produjo la primera intervención gubernamental reclamada por destacados voceros del sector privado de grandes firmas tecnológicas: Italia, a través de su Autoridad de Garantía de Protección de Datos, bloqueó temporalmente el funcionamiento de ChatGPT por llevar a cabo una «recogida ilegal de datos personales» y carecer de «sistemas para verificar la edad» de los usuarios menores de 18 años, tal y como manda la ley europea a través del Reglamento General de Protección de Datos (RGPD).
En su disposición, adoptada el 31 de marzo, la autoridad italiana destacó «la falta de información a usuarios y a todos los interesados de quienes recoge datos OpenAI» pero sobre todo «la ausencia de una base jurídica que justifique la recogida y conservación masiva de datos personales».
Ahora bien, aunque puede tildarse de tardía e ilusoria, toda vez que suponer que en 180 días van a resolverse los problemas de raíz que tienen los desarrollos emergentes de IA, la carta del FLI y sus notorios cofirmantes abren la oportunidad de reflejar en sus propias prácticas los problemas que proyectan –correctamente– sobre los avances en IA. ¿O acaso la vulneración de derechos de usuarios por diseño de servicios y aplicaciones digitales, evitando el consentimiento expreso e informado respecto de opciones de protección de sus datos, no es ya un obstáculo generalizado en las plataformas que usa regularmente más de la mitad de la población mundial?
Los protocolos de seguridad, «seguros más allá de toda duda razonable» y «rigurosamente auditados y supervisados por expertos externos independientes» son una idea brillante propuesta del FLI; su generalización a los servicios y aplicaciones masivos en las grandes plataformas permitiría que su discrecionalidad en la llamada «moderación» y edición de contenidos, que sus continuos abusos en la extracción y tratamiento de datos personales y que sus prácticas comerciales desleales con usuarios finales y anticompetitivas con empresas y organizaciones se reduzcan, haciendo de los entornos digitales un espacio más respirable.
Otra coincidencia entre la Declaración de Montevideo en clave latinoamericana, la carta abierta del FLI y los debates de UNESCO sobre IA es que superan el falso consignismo que equipara regulación legal con control indebido. Al contrario, convocan a legisladores a «acelerar drásticamente el desarrollo de sistemas sólidos de gobierno de IA», que deben incluir, como mínimo «autoridades reguladoras nuevas y capaces dedicadas a la IA; supervisión y seguimiento de sistemas de IA de alta capacidad y grandes conjuntos de capacidad computacional; sistemas de procedencia y marcas de agua para ayudar a distinguir las fugas reales de las sintéticas y rastrear modelos; un sólido ecosistema de auditoría y certificación; responsabilidad por daños causados por IA; financiación pública sólida para la investigación técnica de seguridad de la IA; e instituciones bien dotadas para hacer frente a las dramáticas perturbaciones económicas y políticas (especialmente en la democracia) que provocará la IA».
Otro aspecto crítico a considerar en eventuales regulaciones de la IA es el relativo a las fuentes que usa la IA para componer las producciones que hoy asombran a políticos carentes de imaginación que usan el ChatGPT como efecto sorpresa en sus discursos. En un artículo que tradujo el diario El País el pasado 2 de abril, el investigador Evgeni Morozov recordó que los actuales sistemas de IA como el ChatGPT «no se basan en reglas abstractas, sino en el trabajo de seres humanos reales: artistas, músicos, programadores y escritores, de cuya obra creativa y profesional se apropian esos sistemas».
Para Morozov, la razón por la que programas como ChatGPT son capaces de «hacer algo mínimamente creativo es que sus patrones de entrenamiento los han creado seres humanos reales, con sus emociones complejas, sus angustias y todo lo demás. Y, en muchos casos, no es el mercado –y mucho menos el capital de riesgo de Silicon Valley– el que ha pagado por ello. Si queremos que esa creatividad siga existiendo, debemos financiar la producción de arte, ficción e historia, no solo los centros de datos y el aprendizaje automático». Vale su provocación.
Como se ve a través de aproximaciones tan diferentes como las de la industria tecnológica de países centrales, científicos latinoamericanos, organismos como la UNESCO o investigadores críticos, la oportunidad de crear nuevos marcos respetuosos de derechos ha sido revitalizada a partir de la masificación de los avances de la IA. En vez de reproducir la dicotomía entre optimistas y pesimistas, que suelen coincidir en el determinismo tecnológico al restar capacidad de acción a las personas y sus organizaciones, el momento estelar de la IA en la agenda pública puede abrir puertas para revisar el tipo de lazos vigentes en las sociedades contemporáneas y que la tecnología puede profundizar o corregir según las orientaciones y regulaciones que se le impartan.

Martín Becerra (@aracalacana)

Estás leyendo:

Fascinación, pánico y oportunidad

3 comentarios

  1. Ex-ce-len-te artículo. Un enfoque que obliga a toda la sociedad a inmiscuirse, a comprometerse con acciones concretas para que la IA no termine produciendo una profundización de la dependencia de los centros de poder económicos liberales y el surgimiento de una nueva dependencia al mejor estilo colonial.

Dejar un comentario

Tenés que estar identificado para dejar un comentario.