Sociedad | TECNOLOGÍA Y POLÍTICA

La era de las armas inteligentes

Tiempo de lectura: ...
Marcelo Torres

Drones autónomos, perros mecánicos o robots armados con lanzallamas son ya una realidad. ¿Pueden las máquinas tomar decisiones letales sin control humano?

Thermonator. El perro robot con cámara y lanzallamas que puede quemar todo a su paso durante 45 minutos.

Foto: Throwflame

Cada día se habla más de cómo la Inteligencia Artificial (IA) está acercándose o incluso superando en algunos aspectos a la inteligencia humana. La parte simpática es cuando se le pide a un algoritmo que «fabrique» una foto del papa con una enorme campera acolchada; sin embargo, la parte tenebrosa se desarrolla muy lejos de los entretenimientos divulgados en las redes sociales. La carrera por aplicar la IA a los armamentos es una cuestión que está preocupando a muchos organismos estatales y organizaciones no gubernamentales de todo el mundo por las graves consecuencias que podría tener para la sociedad. No ya porque las máquinas con IA vayan a tomar el poder como en Terminator y exterminar a la humanidad, sino por la falta de límites que podrían tener los Sistemas de Armas Autónomas Letales (SAAL) –como se los conoce en el ámbito militar– a la hora de decidir si matan o no a un enemigo –es decir, una persona– según la misión para la que fueron programados.
El punto principal de sus detractores es que las máquinas no sienten compasión, no tienen empatía y si fueran cargadas con determinados datos biométricos o rasgos culturales, podrían atacar solo a cierta clase de individuos o etnias o por género o religión.
Apenas un solo operador, controlando desde una tableta o una computadora un conjunto de máquinas letales podría ser el causante de una masacre. Incluso en conflictos internos máquinas con IA irían a la vanguardia de la vigilancia y castigo a determinados ciudadanos. Aunque todavía no se conoce un arma completamente autónoma, las potencias militares están a un paso de tenerlas prontas para la acción.

Objetivo final
Solo un ejemplo: durante la Cumbre de Capacidades Aéreas y Espaciales de Combate Futuro, que se desarrolló recientemente en Londres, un militar de la Fuerza Aérea estadounidense reveló que un dron controlado por IA «mató» (en forma virtual) al piloto que lo operaba porque le impedía llegar al objetivo para el que había sido programado. Drones autónomos, pequeños aviones no tripulados, tanques, perros robóticos, robots antropomorfos y todo tipo de máquinas que pueden moverse por terrenos escarpados o volar con las peores condiciones meteorológicas, armados con bombas, ametralladoras o incluso lanzallamas resultan personajes de una película de ciencia ficción que ya se ha hecho realidad en muchos países del mundo, especialmente en las grandes potencias militares: Estados Unidos, Reino Unido, China, Rusia, Australia, India, Israel y Corea del Sur. La aplicación de la IA a los armamentos plantea un desafío a los resguardos éticos que hoy –pese a sus limitaciones– existen en las guerras gracias a acuerdos internacionales. Para Marta Vigevano, profesora adjunta de Derecho Internacional Público en la UBA, «el Derecho Internacional Humanitario (DIH) es una rama del Derecho Internacional Público que en tiempos de conflicto armado protege a las víctimas, a los bienes indispensables para la población civil, al medio ambiente y limitan los medios y métodos de combate», dice la letrada.
Así los SAAL podrían crear un grave problema al extender su raid mortal no solo a los combatientes sino a las poblaciones civiles. «La protección de los derechos humanos también se aplica durante los conflictos armados», recuerda Vigevano.
Dado lo azaroso del comportamiento de estos armamentos, se despliega un vasto abanico de consecuencias impensables y aterradoras. Para Daniel Blinder, especialista en Relaciones Internacionales e investigador del Conicet, «los peligros de incorporar la Inteligencia Artificial a la guerra son básicamente la capacidad de decisión autónoma que pueden tener los sistemas de armas para decidir quiénes son los objetivos y quiénes no. Pero también hay que tener en cuenta que el diseño es pensado por humanos, los patrones de qué es un enemigo, cómo se comporta, cuáles son los blancos a atacar, está compuesto por el pensamiento humano que carga esos datos».
En noviembre de 2018, durante el Foro de la Paz que se desarrolló en París, el secretario general de Naciones Unidas, António Guterres, instó sin ambages a la prohibición de las armas autónomas letales: «Para mí, hay un mensaje que es muy claro: las máquinas que tienen el poder y la discreción para quitar vidas humanas son políticamente inaceptables, son moralmente repugnantes y deberían ser prohibidas por el derecho internacional».

Amigos y enemigos
El espectro de armas autónomas hoy es amplio y va peligrosamente en aumento. Los sistemas con IA actuales pueden cartografiar un terreno en 3D, navegar, volar entre y en edificios, proyectar una misión y llevar adelante ataques coordinados. Hay desde pequeños cuadricópteros (drones) hasta camiones y cazas supersónicos no tripulados.
El argumento de los militares –y obviamente de las corporaciones contratistas de Defensa– es que una guerra con armas autónomas protegerá la vida de los combatientes o que armas equipadas con IA podrían distinguir civiles de combatientes y reducir «daños colaterales». Ambos ejemplos resultan falsos, ya que cuando se habla de reducir muertes de combatientes, se habla solo de los combatientes propios; y la distinción que podría hacer una máquina entre militares y civiles es hoy en día bastante incierta (ver «Un robot no tiene empatía»).
«Cargado el patrón de quiénes son los enemigos –reflexiona Blinder–, estos sistemas podrían disparar y eliminar a civiles no combatientes. También, por qué no, pueden saltarse de la Convención de Ginebra y otros sistemas de protección de derechos humanos que, como todos bien sabemos, a la hora del conflicto bélico, no siempre se cumplen, sino que vienen después». En junio de 2021, un informe del Consejo de Seguridad de Naciones Unidas dio cuenta de cómo un «dron militar autónomo y letal» fue utilizado en una batalla en la guerra civil de Libia. Un grupo de combatientes opositores al Gobierno «fueron perseguidos y atacados a distancia por los vehículos aéreos de combate no tripulados», dotados de IA. Los analistas de la ONU no precisaron el número de víctimas, pero consideran que se trató de los primeros heridos o muertos producidos por los SAAL.
Para Vigevano, «los Estados tienen la obligación, cuando desarrollen, estudien o adopten un arma nueva, de respetar los principios esenciales de distinción y proporcionalidad que deben imperar en la conducción de hostilidades. Podría suceder que los datos de supervisión, intervención y capacidad de desactivación que se utilizan para preparar el algoritmo sean sesgados y pueden discrepar a veces de los datos reales y esto provocar impacto sobre el derecho a la vida».
Los especialistas militares en IA –especialmente de Estados Unidos– están proyectando escenarios que ponen los pelos de punta; como el de enjambres enteros de drones armados –cientos e incluso miles– que trabajarían en conjunto con IA para barrer con un objetivo. Prácticamente no habría dónde refugiarse en un ataque de tal magnitud.
Recientemente Ucrania anunció que está «formando la primera flota de drones del mundo» con aportes de capitales privados. Unos 1.700 aparatos que pueden hacer reconocimiento y atacar serían utilizados en la guerra que libra con Rusia. Ucrania dice haber formado unos 10.000 operadores de drones.

Sin legislación
Otro de los conflictos que se desprende es, si mueren personas inocentes porque el sistema autónomo por cumplir su misión no hace distinciones, ¿quién será el responsable ante la Justicia internacional? ¿A quién le corresponderá la culpa ante una decisión errónea de la máquina?
Los especialistas no se ponen de acuerdo en discusiones que recién están empezando, ya que estas situaciones no cuadran en los convenios internacionales existentes, como las Convenciones y Protocolos de Ginebra, la Carta de las Naciones Unidas, etcétera.
Según Vigevano, «los sistemas de armas totalmente autónomos no pueden aplicar el criterio humano de licitud e ilicitud frente a una situación que plantea dudas durante un conflicto armado, la intervención humana está vinculada a la posibilidad de cambio, en la IA se descarta tomar otros aspectos a los establecidos por los algoritmos o incluso se puede plantear la probabilidad de fallas técnicas», dice la abogada.
«Si en la carrera armamentista se demuestra más eficiente este tipo de tecnología, obviamente si la utiliza un país que desafía a la potencia hegemónica, es muy probable que desarrolle los mismos armamentos para ir a la par o evitar que le ganen en la paridad», señala Blinder. En tanto Vigevano considera, en cuanto a la legalidad, que «si bien no existe un tratado internacional específico sobre prohibición de utilización de armas autónomas, en el DIH se estable la obligación de respetar y hacer respetar la totalidad de las normas jurídicas vigentes. Si no se cumple con los requisitos existirá una responsabilidad internacional por parte del Estado que las utilice».
Ya no caben dudas de que los SAAL van a cambiar el modo en que se han desarrollado las guerras hasta el día de hoy. Lo que se está evidenciando claramente es que los armamentos con IA están transformando las tácticas militares, los ejércitos, los presupuestos de Defensa y las inversiones de las grandes compañías contratistas. Si los organismos internacionales no logran detener con legislación esta carrera siniestra, en poco tiempo más los SAAL se convertirán en la herramienta más útil y más económica de quitarle la vida a todo aquel que sea considerado un enemigo.

Estás leyendo:

Sociedad TECNOLOGÍA Y POLÍTICA

La era de las armas inteligentes

1 comentario

Dejar un comentario

Tenés que estar identificado para dejar un comentario.