Sociedad | INTELIGENCIA ARTIFICIAL GENERATIVA

Diálogo entre máquinas

Tiempo de lectura: ...
Esteban Magnani

Cada vez más programas automatizados que aparentan ser humanos simulan ver o escuchar contenidos para generar tráfico. El enorme gasto energético y su impacto en los sectores vulnerables.

Foto: Shutterstock

La posibilidad de que bots reproduzcan por streaming música creada con herramientas de Inteligencia Artificial (IA) generativa parece extraído de una serie de ciencia ficción distópica. Este fenómeno de máquinas inconscientes, sin capacidad de disfrutar ni de la creación ni de la escucha de música, es lo que detectó recientemente la plataforma Spotify y que la llevó a retirar de su catálogo miles de canciones creadas con una IA llamada Boomy. Estos contenidos eran descargados por bots para sumar escuchas que les permitieran a los supuestos creadores generar ingresos. El fenómeno de máquinas hablando entre sí no es nuevo y excede largamente este ejemplo.
Internet ha permitido poner a disposición de buena parte del planeta cantidades casi ilimitadas de contenidos. Sin embargo, el tiempo de atención que la humanidad puede brindarles se mantiene relativamente estable. Así es que las plataformas compiten de todas las maneras posibles por expandir la porción de atención que les toca y les genera ingresos por abonos, publicidad o de otras maneras. En 2017 Reed Hastings, CEO de Netflix, se planteaba la dificultad de competir por un mercado de atención saturado y aseguraba: «Nosotros en realidad estamos compitiendo con el sueño». Según él, la mejor forma de expandir el tiempo que la gente pasa en su plataforma es hacer series tan adictivas que nadie duerma con tal de seguir mirando.

Bots
En los últimos años, ante la escasez de ese insumo vital para las plataformas, que es el tiempo de atención humana, surgieron otras ideas como la de crear bots, programas automatizados, que aparenten ser humanos viendo o escuchando contenidos. De esa manera se aumentan las descargas y el dinero a cobrar. Incluso hay servicios online que ofrecen 1.000 escuchas de canciones por seis dólares.
El método es peligroso para los artistas porque pueden terminar bloqueados en las plataformas que detecten el streaming automatizado. Algunos incluso pueden contratar de buena fe a empresas de (supuesto) marketing que en lugar de hacer una campaña publicitaria producen falsas descargas. No importa que los hayan estafado: igual terminarán expulsados de la plataforma y no podrán monetizar sus obras. Un daño colateral de este fenómeno es que la cantidad de dinero que se reparte entre los artistas se divide proporcionalmente a la cantidad de escuchas; de esta manera, aquellas que son genuinas pasan a valer menos.
El uso de bots para generar escuchas no es nuevo. Por ejemplo, siempre existió la sospecha de que el éxito musical coreano Gangnam Style de 2012 fue iniciado por sistemas automatizados para llamar la atención de los medios y generar una bola de nieve imparable, como efectivamente ocurrió. A este fenómeno ahora se suma la IA generativa que aumenta aún más la cantidad de canciones que se suben a las plataformas y complica la posibilidad de controlar violaciones al copyright o detectar bots cada vez más refinados que simulan escuchas humanas. Por eso Spotify dio de baja el 7% de la música creada por la IA Boomy en un intento de reducir el fenómeno. Un estudio del Centro Nacional de Música de Francia de 2021, antes del boom de la IA generativa, calculaba que entre el 1% y el 3% de las escuchas eran generadas por bots. En la actualidad ese porcentaje crece aceleradamente.
El fenómeno tiene equivalentes en otras áreas. Por ejemplo, los sitios «periodísticos» que generan noticias con IA usan servicios de Google u otras empresas para ubicar publicidad automáticamente y bots para simular visitas: de esa manera ganan dinero aunque nadie los lea. Más conocido es el uso de troll centers para generar «caricias significativas» que generan diálogos entre sistemas automatizados que dialogan (o se gritan) sin necesidad de intervención humana y aumentan el ruido social. Un periodista de la revista Wired se preguntaba: «Si una canción es creada por IA y escuchada por un bot, ¿fue escuchada por alguien realmente?». La misma pregunta se puede reformular para cada vez más áreas de internet.

Autofagia
Al daño económico a los artistas genuinos, al periodismo en general o al diálogo en redes sociales, se suma el riesgo del futuro mismo de esta tecnología. Es que la IA generativa para «aprender» cómo simular la inteligencia humana debe procesar enormes cantidades de insumos que sirven para entrenarlos. Lo más fácil es tomarlos de internet por medio de bots que recogen contenidos de foros, plataformas de música, repositorios de imágenes, diarios, revistas, blogs, etcétera; pero, ¿qué pasa cuando una parte significativa de los contenidos que circulan por la red y son utilizados para entrenar la IA son, a su vez, producto de otras IA?
La respuesta la da un estudio de dos estudiantes de doctorado de la Rice University (Estados Unidos) quienes explican que cuando una parte significativa de los datos de entrenamiento provienen de otras IA los resultados comienzan a tener problemas que se potencian en cada ciclo. Ellos bautizaron el fenómeno como Desorden de Modelo de Autofagia, una especie de serpiente que se come la cola. Otro especialista, más gráfico, las llama «IA Habsburgo», en referencia a la endogamia de la casa real europea que aumentó la frecuencia con que aparecían algunas enfermedades entre sus miembros. Esta paradoja demuestra, una vez más, que la inteligencia es humana y que las máquinas la necesitan para poder imitarla con alguna verosimilitud.
Todo esto incluso podría resultar pintoresco si no tuviéramos en cuenta que estos sistemas de IA generan un gasto energético brutal para procesar la información, además de grandes cantidades de agua para refrigeración. Es decir que este creciente mundo virtual paralelo e invisible para los humanos, que no sirve para producir nada útil, en un contexto de crisis ambiental produce un daño concreto. Un estudio de la revista científica Nature explica que la IA generativa en general profundizará la crisis energética global en los próximos años. Tal como están las cosas, esto implicará un aumento en los costos de la energía que afectará especialmente a los sectores más pobres, ya que las empresas podrán pagarla para seguir, al menos en parte, financiando un diálogo de sordos entre máquinas inconscientes.
Posiblemente este sea uno de los mejores ejemplos de cómo una de las tecnologías más impresionantes que se hayan desarrollado, con un potencial enorme para mejorar la vida de los seres humanos, al ser exclusivamente guiada por el lucro, se transforma en un chiste macabro.

Estás leyendo:

Sociedad INTELIGENCIA ARTIFICIAL GENERATIVA

Diálogo entre máquinas

1 comentario

Dejar un comentario

Tenés que estar identificado para dejar un comentario.