Robots en guerra: ¿las próximas armas de destrucción masiva?

Comparte:
A hand holding a looking glass by a lake
Innovación mediante crowdsourcing
Involúcrate con nuestra plataforma digital de crowdsourcing para lograr un impacto a escala

Imaginemos que prendemos la televisión y vemos un campo de batalla urbano y distante donde unos robots persiguen y matan a niños desarmados. Es posible que esto parezca ciencia ficción, una escena salida del Exterminador, quizá. Pero, a menos que actuemos con rapidez, los sistemas de armas letales autónomas– armas robóticas con la capacidad de localizar, seleccionar y atacar objetivos humanos sin intervención humana– podrían ser una realidad.

Yo no soy la única persona preocupada por un futuro con “robots asesinos”. En julio, más de 3,000 de mis colegas en la investigación de inteligencia artificial y robótica firmamos una carta abierta pidiendo un tratado que prohíba las armas letales autónomas. Se nos unieron otros 17,000 signatarios de otros campos tan diversos como la física, la filosofía y el derecho, entre lo cuales se incluyen Stephen Hawking, Elon Musk, Steve Wozniak y Noam Chomsky.

La carta fue titular en los diarios en todo el mundo, y se mencionó en más de 2,000 artículos en más de 50 países. ¿Así que qué hay que debatir?

Una nueva clase de robots

Todos estamos familiarizados, en distinto grado, con tres artículos de la tecnología moderna:

  1. El vehículo sin conductor: uno le da las indicaciones y el auto elige la ruta y conduce por su propia cuenta, “examinando” el camino por medio de la cámara que trae abordo.
  2. El software de ajedrez: uno le indica que gane y él elige a dónde mover sus piezas y qué piezas enemigas capturar.
  3. El dron armado: uno lo conduce remotamente por medio de un enlace de video, elige el blanco y lanza el misil.

Un arma letal autónoma podría combinar elementos de esos tres artículos: imaginémonos eso en lugar de que una persona esté a cargo de controlar el dron armado, el software de ajedrez y de tomar sus propias decisiones tácticas así como de usar tecnología de visión desde un vehículo sin conductor para navegar e identificar sus blancos.

En el Reino Unido – uno de al menos seis estados que están llevando a cabo investigaciones, desarrollo y pruebas completas de armas autónomas– el Ministro de Defensa ha dicho que es probable que dichas armas sean factibles en la actualidad para fines aéreos y navales. Dos programas de la Agencia de Proyectos de Investigación Avanzada para la Defensa de Estados Unidos (DARPA, por sus siglas en inglés) ya proporcionan indicios sobre cómo se podrían utilizar las armas autónomas en contextos urbanos. El programa Rápido de Autonomía de Peso Ligero observará pequeñas aeronaves de alas giratorias maniobrar sin ayuda externa a altas velocidades en áreas urbanas y en el interior de edificios. El Programa de Operaciones Colaborativas en Áreas sin Acceso planea crear equipos de vehículos aéreos autónomos que podrían llevar a cabo cada uno de los pasos de una misión de ataque donde la interferencia enemiga hace imposible la comunicación con un comando humano. En un comunicado de prensa que describe el programa, DARPA lo comparó de manera memorable con “lobos cazando en manadas coordinadas”.

robots!

 

No hay duda de que, conforme la tecnología mejore, las armas autónomas llegarán a ser altamente eficaces. ¿Pero eso significa que son una buena idea?

Robótica rebelde

Es posible que, al pensar sobre la guerra, nos imaginemos una degradación total del estado de derecho, pero de hecho la guerra tiene sus propios códigos de conducta legalmente reconocidos. Muchos de los expertos en el campo, los cuales incluyen a Human Rights Watch, El Comité Internacional de la Cruz Roja y el Relator Especial de la ONU Christof Heyns, han cuestionado si es que las armas autónomas pueden observar dichas leyes. Su cumplimiento requiere de juicios subjetivos y situacionales que son considerablemente más complicados que las tareas relativamente fáciles de localizar y matar, y las cuales, bajo el estado actual de la inteligencia artificial, estarían más allá de la capacidad de un robot.

Incluso los países que están desarrollando armas completamente autónomas reconocen estos límites. En 2012, por ejemplo, el Departamento de la Defensa de Estados Unidos emitió una directiva en la que señala que dichas armas deben diseñarse de tal manera que les permita a los operadores “ejercer niveles apropiados de juicio humano por encima del uso de la fuerza”. La directiva específicamente prohíbe la selección autónoma de blancos humanos, incluso en el contexto de la defensa.

¿Robots guerreros para salvar vidas?

Pero algunos expertos en robótica, como Ron Arkin, creen que los sistemas de armas letales autónomas podrían de hecho reducir la cantidad de víctimas civiles en tiempos de guerra. El argumento se basa en la presunción implícita ceteribus paribus que, después del advenimiento de las armas autónomas, las oportunidades específicas para matar –los números, las ocasiones, las locaciones, los lugares, las circunstancias, las víctimas– serán exactamente las mismas que hubiesen ocurrido con la participación de soldados humanos.

Esto sería como asumir que los misiles de crucero sólo se utilizarán exactamente en los contextos donde anteriormente se habían usado las lanzas. Es obvio que las armas autónomas son completamente diferentes a los soldados humanos y serían usadas de maneras completamente distintas, como armas de destrucción masiva, por ejemplo.

Además, parece poco probable que los robots militares siempre tendrán su “programación humanitaria” al 100%. No se puede aseverar de manera consistente que los soldados bien capacitados de las naciones civilizadas sean tan malos para seguir las reglas de guerra que incluso los robots puedan hacerlo mejor, y a la vez afirmar que las naciones rebeldes, los dictadores y los grupos terroristas son tan buenos para seguir las reglas de guerra que nunca usarán a los robots en maneras que violen dichas leyes.

Más allá de los problemas tecnológicos del cumplimiento de reglas, existen también problemas morales. La Cláusula de Martens de las Convenciones de Ginebra –un conjunto de tratados que proporciona el marco para las leyes del conflicto armado– declara que “La persona humana se encuentra bajo la protección de los principios de la humanidad y los dictados de la conciencia pública”. Ese es un sentimiento que comparten países como Alemania, el cual ha declarado que “no aceptará que la decisión sobre la vida y la muerte sea tomada solamente por un sistema autónomo”.

En la actualidad, el público tiene una idea muy limitada del estado de la tecnología y las posibilidades a corto plazo, pero esto cambiará una vez que las imágenes de video de robots matando a civiles desarmados comiencen a aparecer. Entonces, los dictados de la conciencia pública quedarán muy claros, pero quizá entonces sea demasiado tarde para acatarlos.

Robots de destrucción masiva

El impacto estratégico principal de las armas autónomas radica no tanto en su superioridad de combate comparada con los sistemas conducidos por humanos y soldados humanos, sino en su escalabilidad. Un sistema puede ser escalable si se puede aumentar su impacto con el simple hecho de tener mayores números; por ejemplo, conforme escalamos o aumentamos el número de bombas nucleares de toneladas a kilotones a megatones, éstas tienen un impacto mucho mayor. Es por buen motivo que se les conoce como armas de destrucción masiva. Los Kalashnikovs no son escalables en el mismo sentido. Un millón de Kalashnikovs pueden matar a muchísima gente, pero sólo si un millón de soldados los cargan, lo cual requiere un enorme complejo militar-industrial de apoyo, esencialmente todo un estado-nación.

Por otro lado, sólo se requieren algunas cuantas personas para adquirir y programar un millón de armas autónomas: no se requieren pilotos humanos ni personal de apoyo ni cuerpos médicos. Dichos dispositivos formarán una nueva clase escalable de armas de destrucción masiva con propiedades de desestabilización similares a las de las armas biológicas: pueden inclinar la balanza del poder de los estados legítimos hacia los terroristas, organizaciones criminales y otros actores no afiliados a estado alguno. Por último, dichas armas están bien adecuadas para la represión, ya que son inmunes al soborno y a los ruegos de compasión.

A diferencia de las armas convencionales, las armas autónomas también podrían conducir a una inestabilidad estratégica. Las armas autónomas en conflicto con otras armas autónomas deben adaptar su comportamiento rápidamente, de otra manera su previsibilidad podría conducirlas al fracaso. Esta adaptabilidad es necesaria pero hace que las armas autónomas sean intrínsecamente impredecibles y, por lo tanto, difíciles de controlar. Además, el equilibrio estratégico entre países armados con robots puede cambiar de la noche a la mañana gracias a actualizaciones de software o penetración en la ciberseguridad. Por último, a muchos analistas militares les preocupa la posibilidad de una guerra accidental: un “flash crash” militar.

¿Hacia dónde nos dirigimos?

La ONU ya ha tenido varias reuniones en Ginebra para debatir la posibilidad de un tratado que rija el uso de las armas autónomas. Ponerse de acuerdo en los detalles será un gran reto, pero no será imposible. Quizá más complicados sean los problemas de verificación de tratados y desviación de tecnología de uso dual. La experiencia de las Convenciones sobre las Armas Biológicas y Químicas sugiere que la transparencia y la cooperación industrial serán cruciales.

El ritmo de los avances tecnológicos en el área de la autonomía parece ser un tanto más rápido que el proceso típico de la creación de tratados sobre las armas, algunos de los cuales han tardado décadas en concretarse. En la actualidad, el proceso se encuentra sobre un filo: a pesar de que muchas naciones han expresado fuertes reservas acerca de las armas autónomas, otras siguen adelante con la investigación y el desarrollo. Los debates internacionales durante los próximos 12 a 18 meses serán cruciales. El tiempo es esencial.

Autor: Stuart Russell es profesor de Ciencias Computacionales en la Universidad de California, Berkeley

Imagen: REUTERS/Luke MacGregor

 

No te pierdas ninguna actualización sobre este tema

Crea una cuenta gratuita y accede a tu colección personalizada de contenidos con nuestras últimas publicaciones y análisis.

Inscríbete de forma gratuita

Licencia y republicación

Los artículos del Foro Económico Mundial pueden volver a publicarse de acuerdo con la Licencia Pública Internacional Creative Commons Reconocimiento-NoComercial-SinObraDerivada 4.0, y de acuerdo con nuestras condiciones de uso.

Las opiniones expresadas en este artículo son las del autor y no del Foro Económico Mundial.

Comparte:
World Economic Forum logo
Agenda Global

La Agenda Semanal

Una actualización semanal de los temas más importantes de la agenda global

Suscríbete hoy

Puedes anular tu suscripción en cualquier momento utilizando el enlace que figura en nuestros correos electrónicos. Para obtener más información, consulta nuestro Política de privacidad.

Sobre nosostros

Eventos

Medios

Socios y Miembros

  • Únete

Ediciones en otros idiomas

Política de privacidad y normas de uso

© 2024 Foro Económico Mundial