Voces | ENTREVISTA A FERNANDO SCHAPACHNIK

Inteligencia artificial desde el sur

Tiempo de lectura: ...
Esteban Magnani

«Los que van a capitalizar estos cambios están localizados en el norte», asegura el director de la Fundación Sadosky. El impacto de la gran revolución en marcha.

«No teníamos conciencia de lo cerca que estaban las Inteligencias Artificiales (IA) de estos niveles de funcionamiento. Ni la sociedad ni los expertos», reconoce Fernando Schapachnik, doctor en Ciencias de la Computación, docente, investigador y director ejecutivo de la Fundación Sadosky, dependiente del Ministerio de Ciencia, Tecnología e Innovación. «Creo que gran parte del debate tiene un marco conceptual influenciado por cómo lo veníamos pensando».
–¿Cuál era el marco de referencia?
–Era el test de Turing que se usa para ver si la IA engaña a una persona haciéndole creer que es un humano. Muchas veces pensábamos que la IA sería como tener al hijo de Marie Curie y Borges: el sabio universal y la inteligencia universal. Pero no nos dimos cuenta de que la mayoría de nosotros somos gente normal, somos los que ocupamos todos los trabajos; de que un terraplanista o alguien semianalfabeto también tienen inteligencia humana y son capaces de llevar adelante un montón de trabajos. Hay muchos que se enfocan en si esto es inteligente o no, en hacerle trampa para que se equivoque. Es cierto: la IA actual es falible, se equivoca, es válida la discusión; pero creo que no es lo más relevante. Lo que a mí más me preocupa es que encontramos seres humanos con esas falencias y aun así llevan adelante un montón de trabajos que estas mismas herramientas pueden hacer igual o mejor. Al mercado lo que le importa es bajar costos: no le importa si es óptimo. Y estas IA pueden llevar adelante tareas que pensábamos restringidas a humanos, con un nivel más que bueno por más que sea o no inteligencia. Si yo le pido «Resolveme la reserva de avión a no sé dónde» o le preguntás «si quedan en stock calzas tamaño small verdes para enviar a La Plata», lo hace perfectamente.
–La mirada tecno-optimista dice que se van a destruir trabajos, pero se van a crear otros.
–Me parece una mirada poco informada. Porque eso es cierto, probablemente, a largo plazo surjan nuevos trabajos. Porque lo que no te cuentan es lo que pasa en ese «valle de la muerte» que tenés que cruzar para llegar ahí, que puede durar cien años. El otro día escuchaba a un académico israelí que habla de la segunda revolución industrial, o sea, la de la electricidad, a fines del siglo XIX. Las sociedades europea y asiática se estabilizaron tras el impacto recién después de dos guerras mundiales y de una revolución comunista, todo con millones de muertos. Yo no me animo a decir con tanta precisión que ahora también va a ser así, pero sí que todos estos procesos de cambios repentinos, tal como dicen los libros, te hablan de un valle de la muerte. Cuando se desarrolló el tren, el conductor de carrozas no se transformó en empleado ferroviario. Ese tipo murió de inanición. Y ahora ocurre con el agravante de que las condiciones socioeconómicas mundiales son distintas. Los que van a capitalizar esto están localizados en el norte y además mostraron una fuerte aversión al pago de impuestos y mucho éxito en esa tarea. Entonces la idea de que es misión de los Estados resolver estas asimetrías, vía impuestos progresivos, encuentra también problemas para su implementación. ¿Qué significa reconversión laboral? Al que pida que la sociedad se adapte mediante la reconversión laboral, yo le pediría que cite un caso masivo exitoso. Por supuesto que hay ejemplos donde un empleado fabril puede pasar a usar una máquina un poquito más sofisticada. Pero acá no estamos hablando de eso. ¿Qué le podés decir a un locutor que es remplazado por una IA? Son tipos que estudiaron años. ¿Es razonable, conveniente y justo decirle a esa persona que ahora vamos a necesitar ingenieros e ingenieras? ¿O que haga delivery de pizza?
–¿La solución es reglamentar ya este avance?
–Yo creo que es hora de hacer una llamada de atención a la sociedad en general. Por supuesto los Estados tienen una responsabilidad indelegable. Pero si yo tuviese una empresa de consumo que vende a las familias trabajadoras me preocuparía de qué van a vivir mis clientes. Si en algún momento Henry Ford dijo «mis empleados pueden ser mis clientes», bueno, acá tenemos el razonamiento al revés. Si yo acompaño esta movida de bajar costos y todos hacen lo mismo, ¿esto no va en contra de mis propios intereses de mediano y largo plazo? Se viene un escenario de mayor desigualdad. Ojo, no me gusta ponerme en el rol de futurista. La batalla no está perdida: déjenme pelearla primero.
–Por otro lado, venimos de oleadas de tecnologías que demostraron mucho marketing y poca sustancia: los NFT, criptomonedas, Metaverso, Web3, Play to earn y otras.
–Hay una parte de exageración. Lo que no consideramos realista es que se venga el «escenario Terminator» que pronostican algunos. En esas posiciones incluso hay algunos pensadores de los países centrales que resulta un placer escuchar. Son respetables, pero se alejan a veces de los problemas reales muy concretos que se ven desde países como el nuestro. Por ejemplo, la urgencia del impacto del empleo con gente que no tiene resto.
–¿Y qué pasa con las empresas y trabajadores que reclaman que les paguen por usar sus contenidos para entrenar a las IA que les sacan trabajo?
–Me parece que es insuficiente. Si pensamos con perspectiva histórica no han funcionado los «escarmientos ejemplares» en este terreno. Estamos hablando de años de juicio, un pago millonario y eventualmente una obligación de hacer algún cambio. La propia empresa te dice «Sí, tomá» y para ellos es un vuelto. Estos sistemas de IA ya están entrenados para el diálogo. Por supuesto que es genuina la demanda de toda esta comunidad artística, pero no es el trabajo que más me preocupa, que es el rutinario donde se necesita un nivel de diálogo elemental y, eventualmente, extraer la información fáctica de un sistema tabulado. Esos son más masivos.


–¿Y a un nivel más profesional? Pienso en un estudio de abogados o de arquitectos con un par de expertos senior que use IA para el trabajo básico, de borradores y bocetos.
–Coincido plenamente, pero eso plantea otros problemas. Los expertos de hoy son los aprendices de ayer. Si hoy no hay aprendices porque los automatizamos, ¿de dónde van a salir los expertos de mañana? El dominio de alto grado de cualquier habilidad profesional, como periodista, abogado, contador, médico, se obtiene por una formación académica y años de ejercicio de la profesión, donde uno primero es un aprendiz y con el tiempo va evolucionando hacia maestro. ¿Cómo van a aparecer los futuros grandes profesionales?
–Un tecno-optimista te diría que nosotros ya no sabemos hacer fuego con dos palitos y sin embargo podemos vivir.
–Ojalá esa fuera la discusión. Si nosotros viviésemos en un estado del mundo que permita a cada uno tener un asistente personal que resuelve un montón de tareas, buenísimo. Pero eso no es lo que va a pasar. En definitiva, no estamos hablando de las potencialidades tecnológicas de la IA, sino que estamos hablando de la presión que va a ejercer el mercado para el uso de determinadas capacidades de la IA. Y ahí aparece la necesidad de hablar de regulación. Ya conocemos tecnologías que tienen mucho potencial positivo y también de daño como, por ejemplo, la farmacéutica que por eso mismo está fuertemente regulada. No deja de ser innovadora por estar regulada ni de dar ganancias multimillonarias. ¿Qué pasó durante el covid? Esta industria en un mes logró el tubito de ensayo mágico con la primera vacuna, pero ¿cuál era la demanda de la sociedad? Que sea segura. La IA generativa, en cambio, es una innovación que nadie estaba necesitando con urgencia. ¿Cómo aceptamos que esté masivamente disponible sin haber demostrado eficacia y seguridad? No le dieron a las democracias el tiempo del debate. No hay consenso sobre cómo deberíamos regularla. En la Unión Europea ya hablan de lo que, me parece, es un camino razonable que es la clasificación en base al riesgo: hay cosas clasificadas como de riesgo inocuo y no les pedimos nada. Otras son de riesgo muy alto y las prohibimos. Otras de riesgo intermedio y les pedimos más controles.
–Pero a ChatGPT le podemos pedir tanto la fórmula del napalm como la tarea de la escuela.
–Sí, el argumento no es lineal. Como dice una colega: «Ojo con estos semáforos». Los sistemas de chat deberían estar en riesgo alto porque te pueden hablar de cualquier cosa. Vos no podés prever todas las salvaguardas necesarias porque esta tecnología no funciona en base a reglas. Como la entrenaron por asociación, tenés que hacer lo mismo que hacés para que un chico no meta los dedos en el enchufe: le decís mil veces es peligroso. Por eso le pagaron a empresas en general radicadas en el sur global, en particular en África, para que humanos entrenen la IA. La han entrenado con una serie de ejemplos seleccionados, pero justamente porque en realidad esta tecnología no piensa: no se le puede enseñar una regla que diga «Napalm malo, no hables del tema».
–¿Podría una asociación entre Estado y privados desarrollar algo de ese nivel en nuestro país? ¿Y valdría la pena hacerlo?
–Es una muy buena pregunta. Es algo que discuto con amigos, economistas, que consideran que el intento de regular o frenar esto va a punto muerto. Yo creo que esto puede colarse entre las grietas intercapitalistas, como decíamos antes: que los que le venden a los consumidores ejerzan parte de su fuerza para frenarlos. Lo que dicen mis amigos es que tenemos que desarrollar una alternativa local, pero hay una cuestión humana organizativa muy difícil. Hoy en día no tenemos docentes para nutrir las carreras básicas de programación y nos cuesta dar servicios como los que necesitamos en los datacenters locales. Y esto que habría que desarrollar es muy difícil, es tecnología de punta, que costó miles de millones de inversión a los grandes de la tecnología. Es difícil que nuestras sociedades acepten que es ahí donde tiene que ir el dinero cuando hay tanta pobreza. Igual creo que deberíamos hacer las dos cosas y para eso tenemos que trabajar con los otros países de la región. No puede ser que semejante problema lo enfrentemos de a uno. Latinoamérica tiene que tener centros propios avanzados de tecnología controlados por el sector público y al servicio de los pueblos. Resolveríamos un enorme problema de pérdida de divisas que te permiten reducir la pobreza. Además, demandaría muchísimos servicios de empresas privadas locales. Las potenciaría, no las reemplazaría. Porque volviendo a los productos actuales, ellos te venden lo que consideran cuidado, sin ideas tóxicas, pero ¿cuáles son las ideas tóxicas? No queremos que nos digan ellos cuáles son las ideas tóxicas: tenemos que decirlo nosotros desde nuestro lugar en el mundo. Efectivamente habría muy buenos argumentos para desarrollar una IA nacional o regional.

Estás leyendo:

Voces ENTREVISTA A FERNANDO SCHAPACHNIK

Inteligencia artificial desde el sur