La guerra en Ucrania ha motivado el respaldo global al uso de armas autónomas. Recientemente, el Departamento de Defensa de Estados Unidos anunció la actualización de políticas responsables para usar robots asesinos y la inteligencia artificial (IA) en conflictos militares. ¿Cuáles son los riesgos? y ¿quiénes en realidad les controlan?
El 25 de enero, el Departamento de Defensa anunció la actualización de la Directiva DoD 3000.09, Autonomía en Sistemas de Armas. Según el documento, la actualización refleja “el firme y continuo compromiso de Estados Unidos ser un líder mundial transparente en el establecimiento de políticas responsables con respecto a los usos militares de los sistemas autónomos y la inteligencia artificial (IA)”.
Esta es la primera actualización en una década, que se centra en las armas autónomas. Esta concuerda con un plan de implementación publicado por la OTAN el 13 de octubre de 2022, cuyo objetivo es preservar la “ventaja tecnológica” de la alianza en lo que a veces se denomina “robots asesinos”.
Los pronunciamientos reflejarían una lección crucial que la ciencia militar ha aprendido en combates recientes dentro de Ucrania y Nagorno-Karabaj: la inteligencia artificial armada sería el futuro de la guerra.
Te puede interesar: Invasión a Ucrania incita a inversores a fijarse en fabricación de IA para la defensa
Básicamente, estas armas conformadas por una bomba y un dron, pueden levitar durante largos períodos mientras esperan un objetivo. Por ahora, tales misiles semiautónomos generalmente son operados con un control humano significativo sobre las decisiones importantes.
Después de un año de intento de invasión rusa a Ucrania, la guerra ha dejado 280 mil soldados muertos y 30 mil civiles. El saldo aumenta la presión para lograr ventajas decisivas en el campo de batalla, desarrollando armas totalmente autónomas: robots que pueden elegir, cazar y atacar a sus objetivos por sí mismos, sin necesidad de supervisión humana.
Recientemente, un importante fabricante ruso anunció planes para desarrollar una nueva versión de su robot de reconocimiento Marker, un vehículo terrestre no tripulado que aumentaría la fuerza puesta en Ucrania.
Entre tanto, ya se están utilizando drones totalmente autónomos para defender las instalaciones energéticas de Ucrania de otros drones. Wahid Nawabi, CEO del contratista de defensa estadounidense que fabrica el dron semiautónomo Switchblade, afirmó que la tecnología ya está al alcance para convertir estas armas en completamente autónomas.
Mykhailo Fedorov, ministro de transformación digital de Ucrania, ha aseverado que las armas totalmente autónomas son el “próximo paso lógico e inevitable de la guerra” y que los soldados podrían verlas en el campo de batalla en los próximos seis meses.
Los defensores de estas armas afirman que la tecnología mantendrá a los soldados fuera de peligro al no arriesgarlos en el campo. También permitirá que las decisiones militares se tomen a una velocidad sobrehumana, mejorando radicalmente las capacidades defensivas.
Actualmente, las armas semiautónomas como las municiones merodeadoras que rastrean y se detonan en los objetivos, requieren un “humano al tanto”. Los robots pueden recomendar acciones, pero dependen de la aprobación humana.
Por su parte, organizaciones como The Campaign to Stop Killer Robots, argumentan que las decisiones en tiempos de guerra sobre la vida y la muerte deben permanecer en manos humanas. Entregarlos a un algoritmo equivale a la última forma de deshumanización digital .
Human Rights Watch explica que los sistemas de armas autónomos carecen del juicio humano necesario para distinguir entre civiles y objetivos militares legítimos.
Te puede interesar: Adolescentes ucranianos fabrican drones de combate para defender territorio
Las organizaciones argumentan que los estados que invierten más en sistemas de armas autónomos, incluidos EE. UU., Rusia, China, Corea del Sur y la Unión Europea, están lanzando al mundo a una nueva carrera armamentista costosa y desestabilizadora. Una consecuencia podría ser que esta tecnología caiga en manos de terroristas.
En tanto al marco legal actual, no es del todo claro que los comandantes sean responsables de comprender bien los sistemas que utilizan, o que deben limitar el área y el tiempo durante el cual operarán estos robots.
Imagen: Melanie Rovery