Tecnologías emergentes

¿Quién ganará la guerra de las Armas Letales Autónomas?

A man looks at models of android robots, game characters from "Detroit: Become Human" at Tokyo Game Show 2017 in Chiba, east of Tokyo, Japan, September 21, 2017. REUTERS/Kim Kyung-Hoon - RC198D7E9EA0

Image: REUTERS/Kim Kyung-Hoon - RC198D7E9EA0

Irene Savio
Comparte:
Nuestro impacto
¿Qué está haciendo el Foro Económico Mundial para acelerar la acción en Tecnologías emergentes??
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala
Mantente al día:

Tecnologías emergentes

Dice Susi Snyder, directiva de la Campaña Internacional para Abolir las Armas Nucleares (ICAN), ganadora del premio Nobel de la Paz 2017, que las batallas llevan tiempo. “Como siempre, los gobiernos se están moviendo lentamente para reglamentar los Sistemas de Armas Letales Autónomas (SAAL)”, afirma Snyder, en referencia a estas armas que, en el futuro, podrían tomar la decisión de herir, o matar, de forma independiente a cualquier control humano. Snyder sabe de lo que habla. En julio, su organización logró que la ONU aprobara el Tratado sobre la Prohibición de las Armas Nucleares pero, a pesar de las décadas que han pasado desde que se empezó a abordar el asunto, el camino para que el pacto sea una realidad es todavía largo.

Y más aún la discusión sobre Sistemas de Armas Letales Autónomas (SAAL), comúnmente conocidos como “robots asesinos”. El debate para que los Estados los encuadren en un marco regulador internacional —que hoy no existe— todavía está literalmente en ciernes, a la espera de que los países se pronuncien al respecto. La primera reunión del Grupo de Expertos Gubernamentales (GEG) sobre los SAAL —en el marco de la Convención sobre Armas Convencionales (CCAC), que asumió el mandato hace 4 años—, que se celebró la semana pasada en la sede de Ginebra de la ONU, tuvo esto como misión.

El comienzo de la negociación trasladó por primera vez, al plano político la discusión para encontrar un consenso compartido entre los Estados para reglamentar el desarrollo y uso de los robots asesinos, o dictaminar su prohibición, a fin de que no haya vacíos en la implementación del Derecho Internacional Humanitario (DIH) y del Derecho Internacional de los Derechos Humanos (DIDH). Pues, si estos sistemas todavía no existen; sí hay herramientas que sirven para producirlos. Los resultados de esta reunión serán presentados entre el 22 y 24 de noviembre, durante la reunión de las Altas Partes Contratantes en la Convención sobre prohibiciones o restricciones del empleo de ciertas armas convencionales. En la misma, se decidirá cuáles serán los pasos a seguir de la CCAC en relación con los SAAL.

El debate para que los Estados encuadren los Sistemas de Armas Letales Autónomas (SAAL), comúnmente conocidos como “robots asesinos” en un marco regulador internacional todavía está literalmente en ciernes, a la espera de que los países se pronuncien al respecto.

Se trata, sin embargo, de una reunión que empezó con el pie izquierdo, puesto que el encuentro se aplazó dos veces este año y la discusión nació con un gran obstáculo. Esto es la división de los Estados y de la comunidad científica sobre cómo definir los SAAL y establecer su grado de autonomía, y cuál sería el mejor marco jurídico para reglamentar estos sistemas, según ha quedado evidenciado en las decenas de reuniones de organismos de la ONU realizadas en los últimos cuatro años.

En concreto, previo a la reunión de la pasada semana de los GEG, han mantenido encuentros sobre los robots asesinos el Consejo de Derechos Humanos de la ONU, la Asamblea General, diversas agencias de la ONU —en particular, el Instituto de Naciones Unidas de Investigación para el Desarme (UNIDIR), y la Oficina de Asuntos de Desarme de Naciones Unidas (UNODA)— y, sobre todo, la propia CCAC, que al asumir el mandato organizó varios encuentros oficiosos de expertos sobre el asunto. Pero ningún resultado definitivo ha sido alcanzado.

Potencias poco colaborativas

El escollo, en opinión de Marco Sassòli, profesor de Derecho Internacional de la Universidad de Ginebra, se encuentra en que las potencias mundiales se resisten en la actualidad a establecer nuevas reglas que se sumarían a las que ya existen, en un momento en el que el multilateralismo no goza de su mejor salud. Una situación que, como consecuencia, tiene que toda discusión sobre las leyes de la guerra —así como también ocurre en otros ámbitos de debate internacional— sea lenta o, incluso, se encalle. “El pensamiento dominante de los gobiernos de países como Estados Unidos, Rusia y China es que cuantas más reglas hoy, menos será su propio margen de maniobra mañana, en circunstancias distintas”, razona Sassòli.

Por su parte, Maya Brehm, investigadora de la ONG Article 36 y partidaria de que estas armas se prohíban, también hace hincapié en que, a pesar de que existe un grupo de Estados que se han pronunciado a favor de la prohibición de los SAAL, estos países no son un conjunto organizado, con un liderazgo claro. “Para ser creíbles, estos Estados deberían lograr el apoyo de los países que están desarrollando estos sistemas”, apunta Brehm.

No obstante, en la actualidad, de los países miembros permanentes del Consejo de Seguridad, solo China ha manifestado su preocupación por los SAAL y, el año pasado, solicitó por primera vez una nueva regulación internacional para enmarcar estos sistemas. “Les pedimos a los Estados precaución especialmente para prevenir un uso indiscriminado contra las poblaciones”, afirmó la delegación china que participó en la Quinta Conferencia de Examen del CCAC. Reino Unido y Estados Unidos, en cambio, no han aclarado si consideran que, a nivel global, apoyan que la comunidad internacional cree leyes de cualquier modo sobre los SAAL y, hasta la fecha, ha reglamentado el asunto con normas nacionales. En cambio, Rusia ha sido uno de los Estados que se ha mostrado menos favorable a formalizar el debate para llegar a una nueva regulación.

En el bando opuesto, diecinueve países se han mostrado favorables a la prohibición de los robots asesinos: Argelia, Argentina, Bolivia, Chile, Costa Rica, Cuba, Ecuador, Egipto, Ghana, Guatemala, El Vaticano, México, Nicaragua, Pakistán, Panamá, Perú, Palestina, Venezuela y Zimbabue, según un conteo realizado por la campaña Stop Killer Robots. Mientras que el resto de los países han mantenido posiciones opacas, o poco concluyentes.

Fuera de cualquier marco regulador internacional

El meollo del problema está en que, en ausencia de cualquier marco regulador internacional, estos sistemas ponen en la diana varios principios básicos del Derecho Internacional, como las contenidas en los Convenios de Ginebra de 1949 y sus Protocolos Adicionales. En particular, los robots atentan contra elementos claves del Derecho Internacional Humanitario, como la proporcionalidad debida en los ataques para evitar víctimas inocentes, la precaución y el principio de diferenciación entre civiles y combatientes. Normas diseñadas para humanos y difícilmente adaptables a seres que no lo son.

Más aún, tampoco hay certezas sobre la responsabilidad del mando y la rendición de cuentas, dos principios que, además de aliviar a los supervivientes, también actúan como elementos de disuasión para evitar que se cometan nuevos delitos y que, por tanto, son piezas claves de las estrategias de pacificación y estabilización que han de desarrollarse en la etapa inmediatamente posterior a los conflictos. Otras preocupaciones conciernen asimismo en el uso de Sistemas de Armas Autónomas (los llamados SAA), que podrían usarse en contextos no bélicos. Por ejemplo, en acciones policiales durante huelgas o protestas ciudadanas.

¿Qué ocurriría si, en el cumplimiento de sus funciones, un SAAL violara una norma del DIH o del DIDH? ¿Quién es jurídicamente responsable por dicha actuación? ¿Es responsable el Estado que ha enviado al robot a cumplir con su misión? ¿Qué ocurre con las responsabilidades individuales? ¿Cabe atribuir responsabilidad jurídica a los programadores, productores y distribuidores del robot incriminado? ¿Qué responsabilidad recae sobre los responsables (humanos) de la misión? Estas son algunas de las preguntas que, con toda probabilidad, ocuparán en los próximos meses y quizá años las agendas de las comunidades científicas y diplomáticas, pues aún no se han encontrado respuestas consensuales y coherentes.

En la misma tónica, otros han hecho hincapié en los peligros de una proliferación de los SAAL para la estabilidad mundial y la asimetría en los conflictos actuales, así como aspectos relacionados con los peligros derivados de la llamada guerra informática y por el posible abaratamiento posterior de tecnologías con un alto impacto bélico.

Un debate, este, que ya han originado el malestar dentro de la comunidad científica internacional. El punto de ruptura se alcanzó con de la Conferencia Internacional de Inteligencia Artificial, celebrada el 28 de julio de 2015 en Buenos Aires. Durante esa cita, más de 1.000 científicos y expertos en inteligencia artificial y otras tecnologías firmaron una carta abierta contra el desarrollo de robots militares que sean autónomos y prescindan de la intervención humana. Entre los firmantes, figuraron desde el comienzo el físico Stephen Hawking, el cofundador de Apple, Steve Wozniak, y el de PayPal, Elon Musk. Este grupo, al igual que organizaciones como Amnistía Internacional, han intensificado este año su petición para que la comunidad internacional prohíba los SAAL.

Ventaja bélica

Por el contrario, en el otro bando, uno de los principales defensores de los argumentos a favor de los robots militares, ha sido Ronald Arkin, un experto en robótica del Instituto de Tecnología de Georgia. “Estoy convencido que ellos [los robots] pueden desempeñarse más éticamente que los soldados humanos. Lamentablemente, la evolución del comportamiento humano en los campos de batalla, relativa a su cumplimiento de los requisitos legales y éticos, es cuestionable en el mejor de los casos”, ha escrito este analista.

Más aún, Arkin incluso ha propuesto que los robots posean un “regulador ético”. Este sería un complejo sistema que implicaría que los autómatas siguieran un proceso de dos etapas antes de disparar. Primero, los SAAL evaluarían la información que perciben y determinarían si el ataque está prohibido bajo las leyes actuales del DIH. La evaluación, basada en una serie de criterios, consistiría en una respuesta de sí o no. Segundo, si el ataque es considerado legítimo, el robot se prepararía para atacar de acuerdo con el requisito de la proporcionalidad. Tomadas estas precauciones, si el sistema del regulador ético es viable, los robots podrían actuar procesando “más información desde más fuentes mucho más rápido antes de usar fuerza letal que los humanos”.

Asimismo, Arkin ha considerado que la existencia de los SAAL podría tener un efecto disuasorio para los países o actores que no posean estas tecnologías y que, además de ello, una creciente autonomía de los robots militares es inevitable. Sus posiciones han sido ampliamente criticadas por los detractores de los robots asesinos.

Con todo, las ventajas militares de los SAAL han sido abiertamente apoyadas también por la Fundación Heritage, un centro de estudios (de corte conservador) de Estados Unidos, cuyo lema es “liderazgo para los estadounidenses” y donde en el pasado han impartido conferencias personajes como Margaret Thatcher, Ronald Reagan o George W. Bush. En un documento publicado por esta organización, su vicepresidente James Carafano ha hecho hincapié en que los SAAL aumentarían la eficacia del Ejército estadounidense en los campos de batalla, así como sugirió que moderarían los posibles daños de imagen causados a los líderes políticos de EE UU por las muertes de sus soldados en los conflictos.

“En la actualidad, los Estados más avanzados en tecnologías: Estados Unidos, China, Rusia y los países de la Unión Europea, continúan desarrollando armas autónomas. Todos lo están haciendo pero, por supuesto, en secreto”, afirma Jerry Kaplan, uno de los mayores expertos en Inteligencia Artificial en el mundo y autor de Artificial Intelligence: What Everyone Needs to Know y Humans Need Not Apply: A Guide to Wealth and Work in the Age of Artificial Intelligence. “Rusia duda de que el CCAC sea el marco adecuado (para debatir sobre el asunto). Estados Unidos parece satisfecho con su Directiva 3000.09 y ha repetido que los demás países deberían seguir su ejemplo y realizar leyes nacionales. Reino Unido también mantiene esta postura”, añade Kaplan. Israel, desarrollador del Harpy, uno de los primeros sistemas de armas del tipo dispara y desentiéndete, no ha dejado clara su postura.

Polémicas y más polémicas

En este escenario, la ONU y varias organizaciones, entre ellas Cruz Roja Internacional (CIRC), han participado activamente de la discusión en los pasados años, aportando análisis y estudios para que la comunidad internacional establezca, como punto de partida, qué son los SAAL y cómo se definirá su grado de autonomía. Algo que, de acuerdo con una definición propuesta por el CIRC desde 2014, apunta a los SAAL como “sistemas de armas con una autonomía en sus funciones críticas. Esto es un sistema de armas que puede seleccionar [por ejemplo, buscar o detectar, identificar y seguir] y atacar [por ejemplo, usar fuerza en contra, neutralizar, dañar o destruir] objetivos sin intervención humana”.

“Las ventajas de esta amplia definición, que abarca algunos sistemas de armas existentes, es que permite hacer consideraciones sobre el mundo real […], en la relación con el DIH y con los principios de la humanidad y los dictámenes de conciencia pública”, explicó el CIRC.

En este marco, ha nacido la propuesta de garantizar, mediante una nueva codificación, el concepto de “control humano significativo” para la identificación y selección de los objetivos, es decir, sobre las funciones que juegan “un papel crítico” de arma. Un control que, de acuerdo con una interpretación de Human Rights Watch, debería ser sobre cada operación militar, no solo sobre las misiones en general.
“Los sistemas autónomos que no requieren de un control humano significativo deben ser prohibidos”, dijo en febrero de 2016 Christof Heyns, entonces el relator especial de la ONU para las ejecuciones extrajudiciales, sumarias o arbitrarias. No obstante, algunos Estados han criticado también esta definición, con la argumentación de que aceptarla equivaldría a una prohibición de facto de los SAAL.

Tampoco sobre el marco hay consenso. Según Sassòli, “crear un nuevo Protocolo Adicional, o un tratado, podría no ser la solución (…) es inútil que Suiza y Madagascar lleguen a un acuerdo que los demás países no reconocen. Es necesario que lo que se apruebe sea aceptable para más países. Por ello se podría, por ejemplo, pensar en una Declaración política”. “No hay que olvidar que la única vez que se prohibió una arma antes de su entrada en el comercio fue con los láser cegadores y hay quienes piensan que se logró porque los Estados creyeron que desarrollarla no les convenía”, agregó Sassòli.

Al hilo de este razonamiento, Marcel Dickow, jefe de la División de Seguridad Internacional del Instituto Alemán para los Asuntos Internacionales y de Seguridad, cree que, aunque un nuevo tratado sería preferible, en el caso de que la discusión se encalle en el marco de la CCAC, existen otras soluciones. El debate, por ejemplo, podría continuar en otras sedes. “Si las negociaciones fracasan en la CCAC, es posible imaginarse otro proceso de negociación fuera del marco de la ONU, como ocurrió con el tratado de Ottawa”, ha afirmado Dickow. La Convención de Ottawa, también llamada convención sobre la prohibición de minas antipersona, fue en efecto firmada en 1997 y ha sido posteriormente ratificada también por la totalidad de los grandes Estados europeos (entre ellos Francia, Alemania, Reino Unido, Italia y España), pero no por Rusia, China y Estados Unidos.

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

Cómo desbloquear el valor de la infraestructura de movilidad conectada

Maria Alonso, Markus Hagenmaier and Ivan Butenko

17 de abril de 2024

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial