Sistemas de armas autónomas letales

¿Qué son los LAWS?

En la actualidad, no existe una definición comúnmente acordada de los Sistemas de Armas Letales Autónomos (LAWS, por sus siglas en inglés).
Aquí encontrará un resumen de las caracterizaciones de estos sistemas presentadas en el seno del Grupo de Expertos Gubernamentales sobre LAWS: CCW/GGE.1/2023/CRP.1 (a partir de 2023)

¿Existen los LAWS?

Los Estados desarrollan y despliegan cada vez más armas con funciones autónomas. Sin embargo, ciertos sistemas que incorporan funciones autónomas rudimentarias existen desde hace décadas.

Los tipos más comunes de armas con funciones autónomas son los sistemas defensivos. Esto incluye sistemas como las minas antivehículo y antipersona, que, una vez activadas, funcionan de forma autónoma basándose en mecanismos de activación.

Entre los sistemas más recientes que emplean una tecnología cada vez más sofisticada se encuentran los sistemas de defensa antimisiles y los sistemas centinela, que pueden detectar y atacar objetivos de forma autónoma y emitir avisos. Otros ejemplos incluyen la munición merodeadora (también conocida como avión no tripulado suicida, kamikaze o explosivo) que contiene una ojiva incorporada (munición) y espera (merodea) alrededor de una zona predefinida hasta que un operador en tierra o los sensores automatizados de a bordo localizan un objetivo, y entonces lo ataca. Estos sistemas surgieron por primera vez en la década de 1980; sin embargo, desde entonces sus funcionalidades se han vuelto cada vez más sofisticadas, permitiendo, entre otras cosas, mayores alcances, cargas útiles más pesadas y la incorporación potencial de tecnologías de inteligencia artificial (IA).

También se están desarrollando cada vez más vehículos terrestres y marítimos con capacidades autónomas. Estos sistemas están diseñados principalmente para el reconocimiento y la recopilación de información, pero pueden poseer capacidades ofensivas.

¿Cuál es el papel de la inteligencia artificial (IA) en los LAWS?

Los sistemas de armas autónomos requieren "autonomía" para realizar sus funciones en ausencia de dirección o entrada de un actor humano. La inteligencia artificial no es un requisito previo para el funcionamiento de los sistemas de armas autónomos, pero, cuando se incorpora, la IA podría habilitar aún más dichos sistemas. En otras palabras, no todos los sistemas de armas autónomos incorporan IA para ejecutar tareas concretas. Las capacidades autónomas pueden proporcionarse mediante tareas predefinidas o secuencias de acciones basadas en parámetros específicos, o mediante el uso de herramientas de inteligencia artificial para deducir el comportamiento a partir de datos, permitiendo así al sistema tomar decisiones independientes o ajustar el comportamiento en función de las circunstancias cambiantes. La inteligencia artificial también puede utilizarse en un papel de asistencia en sistemas que son operados directamente por un humano. Por ejemplo, un sistema de visión por ordenador operado por un humano podría emplear la inteligencia artificial para identificar y llamar la atención sobre objetos notables en el campo de visión, sin tener la capacidad de responder a esos objetos de forma autónoma en modo alguno.

¿Cuál es la posición de las Naciones Unidas sobre las LAWS?

Desde 2018, el Secretario General de las Naciones Unidas, António Guterres, ha mantenido que los sistemas de armas autónomas letales son políticamente inaceptables y moralmente repugnantes y ha pedido su prohibición en virtud del derecho internacional. En su Nueva Agenda para la Paz 2023, el Secretario General reiteró este llamamiento, recomendando que los Estados concluyan, antes de 2026, un instrumento jurídicamente vinculante para prohibir los sistemas de armas autónomas letales que funcionen sin control o supervisión humana y que no puedan utilizarse de conformidad con el derecho internacional humanitario, y para regular todos los demás tipos de sistemas de armas autónomas. Señaló que, a falta de una normativa multilateral específica, el diseño, el desarrollo y el uso de estos sistemas plantean problemas humanitarios, jurídicos, de seguridad y éticos y suponen una amenaza directa para los derechos humanos y las libertades fundamentales.

Los expertos independientes de las Naciones Unidas también han expresado su preocupación por los sistemas de armas autónomas letales. El Relator Especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, Christof Heyns, fue el primero en dar la voz de alarma sobre los sistemas de armas autónomas letales, en un informe al Consejo de Derechos Humanos en 2013. La Relatora Especial de la ONU sobre la lucha contra el terrorismo y los derechos humanos, Fionnuala Ní Aoláin, se sumó a la petición del Secretario General de una prohibición mundial de los sistemas de armas autónomas letales en un informe al Consejo de Derechos Humanos en 2023.

Grupo de Expertos Gubernamentales de las Altas Partes Contratantes en relación con las tecnologías emergentes en el ámbito de los sistemas de armas autónomas letales (GEG sobre LAWS)

Puede encontrar información sobre las sesiones del GEG sobre LAWS en el Lugar de Reuniones de la ODA.