El derecho internacional humanitario frente al desafío de las armas autónomas
[1]
International Humanitarian Law in face of the challenge of autonomous weapons
DOI: https://doi.org/10.5294/aidih.2022.3.3
Julián Ariel Madrid Moreno
Universidad de Mendoza
julian.madrid@um.edu.ar
https://orcid.org/0000-0003-4209-5768
Recibido: 28 de noviembre de 2021 | Envío a pares: 4 de febrero de 2022 | Aprobado por pares: 27 de marzo de 2022 | Aceptado: 5 de mayo de 2022
Para citar este artículo / To reference this article / Para citar este artigo
Julián Ariel Madrid Moreno. “El derecho internacional humanitario frente al desafío de las armas autónomas”, en Anuario Iberoamericano sobre Derecho Internacional Humanitario, 3 (2022), pp. 49-84. doi: doi.org/10.5294/aidih.2022.3.3
Resumen
El presente trabajo tiene por objetivo, en primer lugar, describir y ensayar una posible definición acerca del concepto de armas autónomas en el derecho internacional humanitario (DIH), para así desvelar las incompatibilidades existentes entre estas con los principios del DIH. En segundo lugar, se pretende demostrar las incompatibilidades entre las armas autónomas y los principios y normas que integran el DIH. Además, se expone la responsabilidad que incumbe a los distintos actores frente a la vulneración de los principios y las normas aplicables a este tipo de armas autónomas. Por último, se propone decretar su prohibición para futuros conflictos armados, tanto internacionales como no internacionales.
La hipótesis de este trabajo radica en que el uso de las armas autónomas puede desencadenar un mayor número de conflictos en todo el mundo y, lo que es más preocupante, un mayor número de víctimas y de infracciones al DIH.
Por lo expuesto, y para el cumplimiento de los objetivos planteados, se analizan las doctrinas, jurisprudencias, normas convencionales y consuetudinarias del DIH a la luz del uso de las armas autónomas durante los conflictos armados.
Palabras clave: derecho internacional humanitario, armas autónomas, conflictos armados, Convenios de Ginebra, Protocolos adicionales a los Convenios de Ginebra
Abstract
The purpose of this paper is, first, to describe and test a possible definition of the concept of autonomous weapons in International Humanitarian Law (IHL), in order to reveal the existing incompatibilities between them and the principles of IHL. Secondly, it is intended to demonstrate the incompatibilities between autonomous weapons and the principles and norms that constitute IHL. In addition, it attempts to expose the responsibility incumbent upon the different actors for the breach of the principles and norms applicable to autonomous weapons. Finally, it is proposed to decree their prohibition for future armed conflicts, both international and non-international.
The hypothesis of this work is that the use of autonomous weapons may trigger a greater number of conflicts around the world and, what is more worrying, a greater number of victims and violations of IHL.
Therefore, and in order to fullfill the stated objectives, the doctrines, Case Law, conventional and customary rules of IHL are analyzed in the light of the use of autonomous weapons during armed conflicts.
Key words:International Humanitarian Law, autonomous weapons, armed conflict, Geneva Conventions, Additional Protocols to the Geneva Conventions.
Introducción
El avance de la tecnología aplicada a la industria armamentística ha crecido notablemente en los últimos tiempos a tal punto que, en la actualidad, las fuerzas armadas de los Estados en conflictos bélicos buscan obtener armas que puedan ser utilizadas de forma autónoma y remota. Las razones por las cuales optan por adquirirlas son diversas; la principal obedece a cuestiones económicas, por el bajo costo para las operaciones en combate.
De esta manera, su implementación aumenta y se extiende a los distintos escenarios de combate en todo el mundo, lo que genera un nuevo panorama en los conflictos armados. Sin embargo, su regulación y limitación a nivel internacional es prácticamente nula o, al menos, insuficiente, ya que actualmente no se han positivizado normas aplicables para las armas autónomas en el Derecho Internacional Humanitario (DIH). Esto se puede atribuir al vertiginoso avance que ha tenido la tecnología aplicada a la industria armamentística.
Pese a las distintas posturas doctrinales sobre el tema, los puntos en discusión son homogéneos. Uno de los principales problemas que presentan las armas autónomas es la inexistencia de un concepto generalmente aceptado acerca de qué debe entenderse por sistemas de armas autónomas letales (SAAL). Dicho conflicto obedece, por un lado, a que el establecimiento de un concepto de armas autónomas sin la debida prudencia puede conllevar una limitación al objeto de dichas armas que no resulta aconsejable y, por otro, a la dificultad de alcanzar un acuerdo entre diferentes Estados sobre el tratamiento que deben recibir las armas autónomas en el ámbito del DIH.[1]
Asimismo, se aprecia una preocupación en la doctrina por la vulneración de los principios del DIH en el uso de armas autónomas letales, porque la correcta aplicación de los principios de distinción, proporcionalidad, humanidad y precaución quedan a merced de un robot.[2] Además, no existe hasta la fecha un consenso sobre en quién recaería la responsabilidad en caso de que un robot vulnere los principios y normas del DIH.[3] Esto se debe a que existen distintos sujetos y actores que interactúan con las armas autónomas de manera diferente. En este sentido, los especialistas en la problemática estudian el factor de atribución de cada individuo sobre las consecuencias producidas por el armamento autónomo; no obstante, hasta el momento no se encuentra una respuesta que resulte mayoritaria.
Concomitantemente, no existe un acuerdo en cuanto a la posible positivización para las armas autónomas. Dicha discusión se desarrolla entre quienes sostienen que es necesario regular su producción y utilización bajo la órbita del DIH para su “limitación”, frente a otros que lo consideran necesario para su “prohibición”. Es decir, el debate centra la polémica acerca de si las armas autónomas letales son legales o ilegales, per se, frente a los principios del DIH.[4]
Debido a las complejidades esbozadas, en el presente artículo de investigación se proponen los siguientes objetivos. En primer lugar, describir y ensayar una posible definición acerca del concepto de armas autónomas en el DIH. Luego, se buscará demostrar las incompatibilidades existentes entre estas con los principios y las normas que integran el DIH. En tercer lugar, se darán ejemplos de la responsabilidad que incumbe a los distintos actores frente a la vulneración de los principios y las normas que resulten aplicables a las armas autónomas. Por último, se propone decretar su prohibición para futuros conflictos armados, tanto internacionales como no internacionales.
1. Definición de arma autónoma: alcance del término “autónomo”
En principio, no existe una definición de arma autónoma que se encuentre aceptada internacionalmente. A pesar de eso, el Comité Internacional de la Cruz Roja[5] opta por una definición de sistemas de armas autónomas como un término genérico que abarca a todos los sistemas de armas dotados de autonomía en sus funciones esenciales de selección y ataque de objetivos.
La mayor parte de la doctrina, en una primera aproximación, propone atender a las tres palabras que forman el concepto, que son respectivamente el sustantivo “arma” (aunque en ocasiones hablemos de un sistema de armas, más que de un arma aislada) y los adjetivos “letal” y “autónoma”. En cuanto a los primeros dos términos (arma y letal), sus definiciones son de carácter unívoco. Así, el diccionario de la Real Academia Española (RAE) define la palabra “arma” en la primera de sus acepciones como instrumento, medio o robot destinados a atacar o a defenderse. El diccionario de Merriam Webster ofrece una definición similar para la traducción al inglés (weapon), centrándose también en las funciones desempeñadas por este objeto como algo (como un bate, cuchillo o pistola) usado para hacer daño, derrotar o destruir. Tampoco en relación con el concepto “letal” existe debate. La RAE presenta como definición un sinónimo de mortífero, que a su vez define como algo que ocasiona o puede ocasionar la muerte. La definición del diccionario de Cambridge para su traducción (lethal, deadly) es parecida, si bien un poco más amplia, la define como algo capaz de causar o que causa la muerte; extremadamente peligrosa.[6]
En cambio, en lo que respecta al segundo adjetivo (autónomo) existe una mayor controversia. La importancia de determinar el alcance de autónomo radica en que el significado de esta palabra es distinto según el ámbito en el que nos encontremos.[7]
Las armas “autónomas” son aquellas que no requieren de una persona natural detrás de sus funciones u operaciones militares para funcionar; de esta manera, la autonomía de un arma se mide por la intervención humana en su operación; es decir, mientras menos intervención exista dentro de dicho proceso, más autonomía posee el arma.[8]
El Comité Internacional de la Cruz Roja (CICR), en su 32 Conferencia Internacional de la Cruz Roja y de la Media Luna Roja,[9] propuso que “sistemas de armas autónomas” es un término amplio que abarcaría cualquier tipo de sistemas de armas, sea que operen en el aire, en la tierra o en el mar, con autonomía en sus “funciones críticas”, esto es, un arma que puede seleccionar (es decir, buscar o detectar, identificar, seguir, seleccionar) y atacar (es decir, emplear la fuerza, neutralizar, dañar o destruir) objetivos sin intervención humana. Para el autor de este artículo resulta de gran importancia entender el término de “autonomía en las funciones críticas”, ya que es lo que distingue a los sistemas de armas autónomas de otros sistemas de armas, en los cuales las funciones críticas son controladas a distancia por un operador humano.[10]
Para que las armas sean autónomas en sus “funciones críticas” deben cumplir con dos requisitos que son, según Queirolo,[11] la “disposición y la intención”. Para el jurista citado, el alcance sobre la “disposición” significa que el sistema autónomo debe ser capaz de hacer su propia elección del objetivo y resolver si interviene, en función de sus naturales percepciones y comprensión del entorno que lo rodea; de esta forma, sería sujeto de eventuales responsabilidades, lo cual es una cuestión debatible. Por otra parte, la “intención” implica que las armas deben ser idóneas a la hora de concebir tareas en un entorno complejo, confuso y dinámico. No obstante, cabe precisar que la “disposición e intención” no equivalen a una capacidad de distinción y proporcionalidad, tal como se define en el DIH.[12]
En síntesis, un “sistema armas autónomo” no sigue simplemente las vías preprogramadas, sino que manifiesta una inteligencia artificial para aprender y tomar decisiones en respuesta a los apremios de entornos complejos y dinámicos, de enormes incertidumbres y sin parámetros previos.[13]
2. Las armas autónomas y los principios del derecho internacional humanitario: sus incompatibilidades
Para el siguiente punto de análisis resultan pertinentes las conclusiones esbozadas en el Informe sobre las Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomas Letales de Naciones Unidas[14] (Informe), elaborado por Grupos de Expertos Gubernamentales. La importancia del Informe radica en establecer los once principios rectores de las armas autónomas en el DIH.
La primera conclusión y principio rector del Informe establece que el posible uso de sistemas de armas autónomas letales debe llevarse a cabo de manera compatible con el derecho internacional aplicable, en particular, con el DIH, con sus requisitos y principios.[15] Dichos principios incluyen, entre otros, la proporcionalidad, distinción, precaución y humanidad en los conflictos armados.
En función de los principios del DIH, se justificarán las incompatibilidades existentes en el uso de armas autónomas para el combate.
2.1. Principio de distinción
Para el DIH, vale remarcar que el principio de distinción constituye uno de los más fundamentales. Fue planteado por primera vez en 1868 en la Declaración de San Petersburgo, al expresar como único objetivo de la guerra la debilitación de las fuerzas enemigas a través de la diferencia entre un “objetivo militar” y uno civil. Pero, penosamente, es el horror de la Segunda Guerra Mundial y de conflictos ulteriores el que impulsa el desarrollo de su contenido y alcance.
En 1949, se adoptaron los Convenios de Ginebra para la protección de las víctimas de los conflictos armados; estos tratados no solo regularon la suerte de los heridos, enfermos o náufragos de las fuerzas armadas o de los prisioneros de guerra –actualizando los tratados de 1864, 1907 y 1929–, sino que uno de los convenios, el Convenio IV, se dedicó exclusivamente a la protección debida a las personas civiles en tiempo de guerra, incluidos los insumos y objetos que hacen a su supervivencia.[16]
Asimismo, los Protocolos I y II Adicionales a los Convenios de Ginebra de 1949, adoptados en 1977, profundizaron los alcances del principio de distinción. En el primero de ellos, aplicable a los conflictos armados internacionales, se da el carácter de norma fundamental que establece la obligación de las partes en conflicto de hacer distinción en todo momento entre población civil y combatiente, deber que se extiende –a más– a la expresa distinción entre bienes de carácter civil y objetivos militares, por lo que las operaciones solo pueden dirigirse contra estos últimos; esto es, contra objetivos que tengan un nexo directo con la acción militar.[17] Igualmente, es importante mencionar el artículo 8 del estatuto de la Corte Penal Internacional, al sancionar los ataques contra la población civil como eje central del principio de distinción.
El principio de distinción entre civiles y quienes combaten y, por ende, la prohibición de atacar a la población civil o de lanzar ataques indiscriminados, tiene como objetivo principal cumplir uno de los propósitos del DIH, que es el de proteger a las personas que no toman parte directamente en las hostilidades. En el preámbulo de la Convención IV de La Haya de 1907, relativa a las leyes y costumbres de la guerra terrestre, las partes dejaban constancia de que las disposiciones que adoptaban se inspiraban en el deseo de disminuir los males de la guerra, para servir de regla general de conducta a los beligerantes en sus relaciones entre sí y con la población civil. Esto quiere decir que, en un conflicto armado, unos son los beligerantes y otros las poblaciones civiles: mientras que los primeros tienen derecho a participar directamente en las hostilidades, los segundos (población civil), siempre y cuando no participen directamente en estas, tienen derecho a que se les garantice su respeto y protección.[18]
Pese a la avanzada tecnología que tienen las armas autónomas, estas no garantizan ser capaces, hasta la fecha, de distinguir entre quienes combaten y los que no. Así, por ejemplo, si se programan para accionar ante la imagen humana, puede resultar poco probable que sean capaces de diferenciar entre un combatiente y un civil, o entre un combatiente apto para combatir y uno herido. ¿Puede un robot decidir entre la vida y la muerte? Indudablemente, las armas autónomas carecen de la capacidad suficiente para respetar el importante principio de distinción reconocido en el DIH.[19]
Los autores que promueven el uso de las armas autónomas sostienen que podría parecer, a priori, un requisito objetivo y sencillo para comprender, e incluso cumplir, si un objetivo es militar o no. De todos modos, aceptar esto como cierto sería incurrir en un reduccionismo con respecto a los conflictos contemporáneos. De ahí que, para cumplir con el principio, un arma letal autónoma tendría que ser capaz de determinar, por ejemplo, el uso, la ubicación y la función de cualquier objeto, y tomar decisiones eminentemente estratégicas al establecer qué objetivos militares concretos tiene un país, independientemente de qué objetivos militares se consideran legítimos.
Además, este problema se vuelve exponencial cuando, verbigracia, quienes luchan lo hacen sin portar uniforme o distintivo alguno y, por tanto, deben identificarse como combatientes con base en su participación o intención de participar en las hostilidades.[20] En este punto cabe resaltar las afirmaciones de Noel E. Sharkey, profesor de Inteligencia Artificial y Robótica de la Universidad de Sheffield en Reino Unido, al evidenciar que los robots de hoy en día carecen de los principales elementos exigibles para asegurar el cumplimiento del principio de distinción.[21]
Las carencias de las armas autónomas se pueden resumir, según el experto citado, en tres puntos centrales. Primero, no tienen los sensores adecuados, ni sistemas de visión para distinguir combatientes de civiles, en particular en los conflictos asimétricos o asimilados,[22] ni para reconocer combatientes heridos, que se han rendido o se hallan mentalmente en una situación a la que es aplicable el principio de distinción. Segundo, no es posible, por la vaguedad de las definiciones jurídicas de los Convenios de Ginebra de 1949 y del Protocolo Adicional I de 1977 (como la de “civiles”, o conceptos necesarios como “sentido común”), trasladar al lenguaje del programa de un computador la esencia del principio de distinción. Y tercero, a pesar de dotar a los robots de mecanismos para distinguir civiles de militares combatientes, los robots carecen de la capacidad de alcanzar el nivel humano del sentido común indispensable para la correcta aplicación del principio de distinción. El profesor Sharkey se declara sumamente escéptico, incluso sobre la posibilidad de que alguna vez sea posible –pese al avance esperado de la tecnología– llegar a este extremo.[23]
2.2. Principio de proporcionalidad
Algunos autores sostienen que la incompatibilidad entre las armas autónomas y el DIH se funda en razones puramente técnicas. Pero, como manifiesta Gorrín Mérida, el derecho que regula en el plano internacional los medios y métodos de hacer la guerra lleva explícito el término “humanitario”. Actuar con “humanidad” es solo factible para el ser humano, y la raíz de ese concepto proviene de la naturaleza de la persona humana. El DIH está destinado a menguar los daños excesivos e innecesarios en los conflictos armados, así como a prestar protección y asistencia a las víctimas de la guerra.[24]
De esta manera, quienes planeen o decidan un ataque deben abstenerse de iniciarlo, o bien suspenderlo, cuando sea de prever que causará incidentalmente muertos o heridos en la población civil, daños a bienes de carácter civil, o ambas cosas, que serían excesivos en relación con la ventaja militar concreta y directa prevista. Así, el principio de proporcionalidad establece las reglas para valorar como lícitos o ilícitos los daños causados a personas y bienes que no participan en las hostilidades por un ataque dirigido contra un objetivo militar. Solo aquellos daños que quebranten la proporcionalidad aceptada por el DIH podrán ser considerados como ilícitos; por su parte, los que respeten este principio, aunque representen la pérdida de vidas de personas y bienes de carácter civil, son aceptados por el DIH. El DIH no solo protege a los civiles contra los efectos de las hostilidades, sino que también prohíbe o restringe los métodos y medios de guerra que causen sufrimientos innecesarios o males superfluos a los combatientes.[25]
El primer inciso del artículo 57.2 del Protocolo Adicional I a los Convenios de Ginebra indica que se debe hacer todo lo que sea factible para verificar que los objetivos proyectados para atacar no sean personas o bienes civiles, ni gocen de protección especial. Por lo pronto, resulta poco factible que un robot tenga la capacidad de discernir tal verificación.
Por otro lado, el tercer inciso del mismo artículo dispone que debe abstenerse de decidir un ataque cuando sea de prever que causará incidentalmente muertos o heridos en la población civil, daños a bienes de carácter civil, o ambas cosas. Además, señala que un ataque será suspendido o anulado si se advierte que el objetivo no es militar o que goza de protección especial. Por último, el artículo 57.3 determina que, en caso de elegir entre varios objetivos militares para obtener una ventaja militar equivalente, se optará por aquel cuyo ataque presente menos peligro para las personas civiles y los bienes de carácter civil.
A partir de lo manifestado, ¿sería posible que un arma autónoma pueda cumplir con estas exigencias, que implican la realización de análisis y decisiones que son básicamente humanitarias? La respuesta es, necesariamente, negativa. El fundamento es que el principio de proporcionalidad responde esencialmente a consideraciones humanitarias, es decir, de los factores inherentes a la persona humana. Las guerras, que ya de hecho son inhumanas, se harán cada día más inhumanas, no solo ante la ausencia parcial o total del factor humano por parte de las partes involucradas (o de alguna de ellas) en el conflicto armado, sino por la incapacidad de los medios de comportarse humanitariamente, es decir como “humanos”.[26]
Para complementar la falta de proporcionalidad que representan las armas autónomas en los conflictos armados, corresponde distinguir el concepto de “necesidad militar”. De acuerdo con este concepto, toda actividad de combate debe justificarse por motivos militares y, por lo tanto, están prohibidas las acciones que no sean militarmente necesarias. En este sentido, el concepto de necesidad militar está integrado por los siguientes elementos relacionados con el uso de la fuerza: i) los medios para lograr la victoria no son ilimitados, el uso de la fuerza puede y debe ser controlado, la necesidad militar no permite el uso de la fuerza si esta va en contra de lo dispuesto por el DIH; ii) el uso de la fuerza es legítimo si es necesario para lograr, lo más rápido posible, la completa o parcial sumisión del enemigo. El uso de la fuerza que no sea necesario será ilegal.[27]
El artículo 35.2 del Protocolo Adicional I, incluido dentro de su título III, relativo a los métodos y medios de guerra, estatuto de combatiente y de prisionero de guerra, incorpora la prohibición del empleo de armas, proyectiles, materias y métodos de hacer la guerra de tal índole que causen males superfluos o sufrimientos innecesarios. Ello supone que un sistema de armas autónomo sería legítimo, al igual que cualquier otro medio de guerra, siempre que los medios empleados por aquel sean los estrictamente necesarios para el cumplimiento de su fin, sin presentar especialidad alguna derivada de su funcionamiento autónomo.[28]
Empero, resulta cuestionable la posible “legitimidad” de las armas autónomas bajo el principio de necesidad militar. En la guerra no todo está permitido: existen límites tanto en los medios y métodos de hacer la guerra, como en las formas de comportamiento de las personas. Esos “límites” están recogidos en múltiples tratados internacionales y obedecen a la aceptación general de normas de comportamiento que se han hecho costumbres jurídicas internacionales.
La “necesidad militar” obedece a postulados jurídicos de la táctica y el arte militar. Frente a ello, el “humanismo” es fruto de los valores éticos de los que participan en la guerra; sin esos valores no puede hablarse del cumplimiento de las normas del DIH.[29] Las armas autónomas letales carecen de estos valores, puesto que se encuentran en manifiesta incompatibilidad con la mayoría de los principios del DIH.
2.3. Principio de precaución
El principio de precaución dispone que las partes en conflicto tienen la obligación de evaluar, antes de realizar un ataque, si este causará incidentalmente daños desproporcionados.[30] El principio de precaución también conlleva el deber de evitar o reducir en todo caso a un mínimo el número de muertos y heridos, así como los daños a los bienes protegidos contra los ataques directos. Así, el artículo 58 del Protocolo Adicional I y la Norma 22 del DIH Consuetudinario (DIHC) establecen que, tanto el atacante como la parte afectada por los ataques enemigos, deberán adoptar medidas de precaución. Por consiguiente, las partes beligerantes deberán tomar todas las precauciones factibles para proteger de los peligros de las operaciones militares a la población civil y los bienes de carácter civil que estén bajo su control.[31]
Este criterio se aplica tanto a la parte atacante, que debe hacer todo lo que sea factible para evitar causar daños incidentales como resultado de sus operaciones (precauciones en el ataque), como a la parte que es atacada, la que, dentro de lo posible, deberá adoptar todas las medidas necesarias para proteger a la población civil bajo su control contra los efectos de los ataques enemigos (precauciones contra los efectos de los ataques), conforme al artículo 58 del Protocolo Adicional I.[32]
Resulta una exigencia, tanto convencional como consuetudinaria, que las operaciones militares se desarrollen, conforme a los artículos 57 y 58 del Protocolo Adicional I y la norma 22 del DIHC, con el cuidado constante para preservar a la población civil, a las personas civiles y a los bienes de carácter civil. Esto supone la necesidad de hacer lo posible para comprobar, con carácter previo y con base en la información disponible, que el objeto del ataque es un objetivo militar legítimo. Asimismo, requiere la adopción de todas las medidas necesarias para evitar o, al menos, minimizar los daños colaterales. En este contexto, la mayor capacidad de reconocimiento y análisis de datos puede suponer una ventaja para tener en cuenta.[33] Al fin y al cabo, el hecho de que sea un robot y no una persona la que evalúe las medidas precautorias hace poco viable que estos parámetros sean íntegramente cumplidos, por la ausencia de intervención humana.
2.4. Principio de humanidad
El principio de humanidad es el de mayor importancia en la materia, puesto que la base del DIH está en su criterio humanitario. De igual manera, es el de mayor aplicación integradora, porque debe siempre aplicarse a favor de combatientes y no combatientes, y consiste en respetar y tratar a todas las personas con humanidad, tanto a las que combaten –a quienes no se les hará padecer sufrimientos innecesarios–, como a las que no lo hacen –quienes en todo momento deberán ser tratadas con humanidad–. Es decir, que mientras el principio de distinción separa a los que combaten de los que no, el principio de humanidad los une en una misma protección.[34]
El principio de humanidad constituye una cláusula de cierre, de modo que el actuar de las partes beligerantes no suponga en ningún caso la total desprotección de las víctimas en un conflicto armado, aun en ausencia de una norma específica, al establecer un umbral mínimo de amparo para estos, sean civiles o combatientes. Tiene su antecedente en la Convención II de La Haya de 1899 relativa a las Leyes y Usos de la Guerra Terrestre y, en la actualidad, en el artículo 1.2 del Protocolo Adicional I, si bien ha adquirido a su vez la consideración de norma de derecho internacional consuetudinario con fundamento en el artículo 3, común a los Convenios de Ginebra de 1949.
El fundamento primordial del DIH es humanizar los conflictos armados. Aun así, ¿es lógico querer humanizar la guerra?, ¿acaso no está en total contradicción con la esencia misma de los contextos bélicos? Kalshoven aporta una respuesta, al indicar que el DIH de ningún modo pretende hacer de la guerra una actividad “de buen tono” y esencialmente humana, sino que se propone impedir que las partes en un conflicto armado actúen con una crueldad ciega e implacable, y que se facilite proporcionar la protección fundamental que los afectados por el conflicto necesitan.[35]
Una de las características principales del DIH es que este no tiene la pretensión de prohibir, ni la ambición de definir la legitimidad de los conflictos armados. Su objetivo es que los beligerantes cumplan con sus obligaciones humanitarias en todas las circunstancias, independientemente de la conducta del enemigo y de la naturaleza o el origen del conflicto. Por ende, el DIH no permite excepciones a la aplicación de sus disposiciones, puesto que sus normas son irrenunciables y no pueden ser desconocidas por las partes en conflicto en ninguna circunstancia.[36]
En lo que respecta al principio de humanidad, se entiende que no existiría, por lo pronto, una posible compatibilidad de dicho principio con el uso de armas autónomas. El hecho de que se pondere humanizar los conflictos armados tiene su razón de ser, con cierto pragmatismo, por el respeto y protección de la dignidad humana. Si lo que se busca es humanizar los conflictos armados, jamás podría ser admisible la incorporación de un robot con fines de ataque, ya que los resultados pueden ser contrarios a los esperados, es decir, deshumanizar los conflictos.
3. La atribución de responsabilidad por el uso de armas autónomas
Unos de los principales debates es responder al interrogante sobre la atribución de responsabilidad dimanante, en caso de violación de normas y principios del DIH por el uso de armas autónomas. Para el estudio de este apartado adquieren relevancia las conclusiones a las que arribaron los expertos de Naciones Unidas en materia de responsabilidad por el uso de armas poco convencionales.[37]
La primera consideración es que el DIH impone obligaciones a los Estados, a las partes en un conflicto armado y a las personas, no a los robots. La segunda consideración es que los Estados, las partes en un conflicto armado y las personas deben ser responsables en todo momento del cumplimiento de las obligaciones que les incumben en virtud del derecho internacional aplicable, incluido el DIH. Los Estados deben garantizar la responsabilidad individual por el empleo de medios o métodos de guerra que entrañen el posible uso de sistemas de armas basados en tecnologías emergentes en el ámbito de los sistemas de armas autónomas letales, de conformidad con las obligaciones que les incumben en virtud del DIH.[38]
El fin que sustenta estas consideraciones radica en la necesidad de un cierto grado de control o previsibilidad del resultado para evitar responsabilidades. Por tal razón, se torna pertinente la presencia de un ente con personalidad jurídica propia que pueda ejercer dicho control y asumir, en consecuencia, dicha responsabilidad. En este marco, es la falta de control y previsibilidad lo que excluye por su propia naturaleza a las armas autónomas, que no pueden responder a las eventuales vulneraciones del derecho internacional bajo su autoría, en tanto que carecen de personalidad e intencionalidad. Por ende, no pueden ser consideradas responsables, ya sea a título de dolo o de culpa.[39]
Como punto de partida, cabe recordar que el DIH vincula a las partes en los conflictos (Estados y grupos armados organizados), mientras que el derecho penal internacional vincula a las personas concretamente.[40] Sobre esta premisa, se plantea el segundo interrogante, consistente en la determinación del ente o los entes concretos que han de asumir dicha responsabilidad, sea el Estado, el mando militar que ordena el empleo de armas autónomas, el operador del sistema o, incluso, el fabricante, diseñador y programador. La cuestión planteada será objeto de análisis en este apartado, a fin de determinar el alcance de responsabilidad que le corresponde a cada uno de los sujetos antedichos.
3.1. Responsabilidad internacional del Estado
3.1.1. Teoría negacionista
Autores como Gutiérrez y Cervell[41] niegan la posibilidad de atribuirle responsabilidad a los Estados por los actos de los robots, postura que se asienta en que la conducta implícita en el delito internacional concreto no es obra de un ser humano. Por tanto, no parece fácil –sostienen– aplicar al Estado las normas sobre la atribución de responsabilidades previstas por el derecho internacional para los comportamientos de robots. En cambio, los Estados son responsables por los comportamientos contrarios a una obligación internacional en vigor de sus órganos, de los órganos de otro Estado o de una organización internacional puestos a su disposición, de las personas que siguen sus instrucciones o están bajo su control cuando realizan el comportamiento antijurídico y, en su caso, cuando asumen como propio el comportamiento antijurídico llevado a cabo por personas de las que no son responsables de acuerdo con estas normas.
¿Debe ser el Estado responsable si el programa informático del robot ha sido diseñado por uno de sus órganos o por una persona cuyo comportamiento puede serle imputado al Estado?, ¿lo es si el robot (diseñado o con programa de un tercero) es utilizado por su ejército o sus unidades operativas, o por una persona cuyo comportamiento puede, según el derecho internacional, ser responsable?[42] Los autores que adhieren a esta postura concluyen que no debe descartarse la posibilidad de que, dada su naturaleza –y de no prohibirse–, se otorgaría a las armas autónomas un régimen de responsabilidad objetiva o absoluta. En todo caso, estos sistemas de armas deben, también por las lagunas que se plantean respecto de la atribución de responsabilidad de sus eventuales violaciones del derecho internacional, ser objeto de un profundo estudio que prepare el cuadro jurídico que les sea aplicable.[43]
3.1.2. Teoría afirmativa
La postura mayoritaria, y compartida por el autor de esta obra, permite asentir en la responsabilidad objetiva y absoluta de los Estados por la transgresión del DIH que involucre el uso armas autónomas. Al respecto, resulta más sencillo exigir responsabilidades a los Estados, puesto que el concepto de responsabilidad estatal está perfectamente consolidado en el derecho internacional. Entonces, al asumir que las armas autónomas operan bajo la autoridad del ejército estatal, sus actos serían de su responsabilidad, con lo que se crearían las condiciones necesarias para adoptar las medidas pertinentes para que su uso fuera respetuoso con las normas aplicables.[44]
En ese sentido, como afirma Meza Rivas,[45] cabe resaltar la aprobación de un reporte final, por consenso de los Estados, contentivo de las conclusiones del debate en las que se reafirma a la Convención sobre Ciertas Armas Convencionales de 2016. Dicho reporte busca instituir a la Convención como un foro apropiado para las discusiones sobre las armas autónomas, al tiempo de reiterar que el DIH es aplicable a todos los sistemas armamentísticos, y que el uso de dicha tecnología es y debe ser responsabilidad de los Estados.
La imputación de esta responsabilidad se fundamenta, en primer lugar y con carácter genérico, por el artículo 1 común a los Convenios de Ginebra, en virtud del cual las altas partes contratantes se comprometen a respetar y a hacer respetar sus disposiciones en todas las circunstancias. Esta obligación requiere la adopción de medidas preventivas dirigidas a minimizar el riesgo, tales como el sometimiento previo a los citados procedimientos de revisión del artículo 36 del Protocolo Adicional I, o la limitación de los escenarios de aplicación de armas autónomas. Por otro lado, constituye un principio general del derecho internacional que el Estado es responsable en caso de incumplimiento de una obligación internacional. Así lo reconoció el Tribunal Internacional de Justicia en su sentencia del 13 de septiembre de 1928, en el caso Chorzow, al dictaminar que es un principio de derecho internacional, incluso una concepción general de derecho, que toda violación de una obligación internacional trae consigo la obligación de reparar.[46]
De igual modo, el Proyecto sobre la responsabilidad del Estado por hechos internacionalmente ilícitos, elaborado por la Comisión de Derecho Internacional de las Naciones Unidas,[47] establece en su artículo 1 que todo hecho internacionalmente ilícito del Estado genera su responsabilidad internacional. Para que dicha responsabilidad sea exigible, debe precisar la concurrencia de dos principales presupuestos. En primer lugar, se requiere, según el derecho internacional, la existencia de una conducta activa u omisiva atribuible al Estado. En segundo lugar, es necesario que dicha conducta constituya una violación de una obligación internacional asumida por el Estado.
A tal efecto, se consideran imputables al Estado los actos procedentes de sus órganos, entidades o personas que estén facultadas para ejercer atribuciones del poder público y actúen en el ejercicio de sus funciones, aun cuando se excedan en su competencia o contravengan sus instrucciones. Fuera de estos supuestos, también puede existir responsabilidad del Estado por actos ilícitos llevados a cabo por otras personas cuando, a pesar de no serle directamente imputables, no hubiese adoptado las medidas necesarias para evitar un acto contrario al derecho internacional, o perseguirlo y castigarlo una vez producido.[48]
En estos casos, será necesario acreditar que la vulneración de la norma internacional deba surgir precisamente de la falta de diligencia atribuida al Estado. Esta obligación debe hallarse vigente en el momento en que se produce el hecho, cualquiera que sea su origen (tratados, costumbres o principios generales del derecho internacional). Resultaría posible el establecimiento de un régimen de responsabilidad objetiva basado en la peligrosidad y riesgo inherente que supone emplear un sistema de estas características, por su elevado grado de imprevisibilidad. En síntesis, no quedan fuera los Estados del sistema de responsabilidad internacional ni del derecho penal internacional, mientras exista un vínculo con un ente con consideración de sujeto de derecho internacional o dotado de personalidad jurídica propia al que quepa atribuir la decisión de su despliegue o las acciones ejecutadas por este.[49]
3.2. Responsabilidad penal internacional
La discusión legal acerca de las tecnologías de ataque remoto a menudo se centra en la cuestión de la responsabilidad. ¿Quién es responsable cuando algo sale mal? En el caso de ataques remotos, como los realizados por robots, puede ser muy difícil determinar quién realizó el ataque con precisión y con qué propósito en particular. El arma autónoma desde la cual se inició el ataque puede ser identificable en algunos casos, pero el nombre de la persona que la creó, el de la persona potencialmente diferente que dirigió el arma hacia su objetivo, y el Estado, grupo u otra entidad para la cual estas personas estaban actuando puede no llegar nunca a ser conocido o divulgado públicamente. Por lo tanto, estas dificultades pueden hacer que sea imposible, en la práctica, determinar la responsabilidad en el caso de eventos particulares.[50]
No obstante, es sustancial destacar que, hasta el momento, como afirma Hurtado Granada,[51] nadie espera que los robots reemplacen totalmente a los combatientes en las hostilidades. En otras palabras, es necesaria la presencia del estratega en el campo de batalla, sus decisiones y su responsabilidad en la actuación.
3.2.1. Situación del mando no operador
Mientras exista un ser humano en la cadena de mando que ordene o controle la actuación de un arma autónoma, este puede ser considerado responsable por su uso indebido. En el ámbito internacional, la principal vía para hacer efectiva esta responsabilidad es la Corte Penal Internacional (CPI), creada en Roma por el Estatuto de la Corte Penal Internacional (ECPI) el 17 de julio de 1998. El preámbulo y artículo 1 del Estatuto pone de manifiesto que la competencia del tribunal se extiende al genocidio, crímenes de guerra, de lesa humanidad y de agresión cometidos después de la entrada en vigor de su Estatuto en el territorio del Estado o en el país del cual el/la perpetrador/a sea nacional, y se ejerce con carácter complementario respecto de las jurisdicciones penales nacionales. En este sentido, el mando puede ser responsable penalmente por crímenes de guerra que sean cometidos por sus subordinados a través de sistemas de armas autónomas.[52]
Para la existencia de dicha responsabilidad, se requiere de la concurrencia de diversos presupuestos. El primero, según López-Casamayor Justicia,[53] es que haya una relación entre superior y subordinado, manifestada en el ejercicio del mando o autoridad y control efectivo. El segundo, que el mando militar o superior supiera o hubiere debido saber que las fuerzas bajo su autoridad estaban por cometer tales crímenes o se proponían cometerlos. El tercero es que, en tales circunstancias, no hubiese tomado todas las medidas razonables y necesarias a su alcance para prevenir, reprimir o perseguir su comisión. El cuarto, y último, es que exista una relación de causalidad entre la falta de adopción de las medidas necesarias para evitar el delito y la comisión de este. En estos presupuestos ha de haber, en consecuencia, una conducta imputable al superior, bien sea a título de dolo o negligencia, que existirá siempre que en el empleo de un arma autónoma pueda identificarse una intervención humana sobre el robot.
Al seguir este razonamiento, el DIH preceptúa que los mandos militares incurren en responsabilidad cuando sabían o poseían información que les permitiera concluir, en las circunstancias del momento, que su subordinado estaba o iba a cometer una infracción a los convenios de Ginebra y sus protocolos adicionales. Si los mandos no tomaron todas las medidas factibles que estuvieran a su alcance para impedir o reprimir la infracción, entonces incurrieron en responsabilidad penal internacional.[54]
3.2.2. Situación del subordinado operador
Si se afirma que el mando tiene responsabilidad por su calidad de tal, ergo, también puede reconocérsele responsabilidad al combatiente que despliega los ataques, si puede prever consecuencias violatorias del DIH.[55] Por consiguiente, esta responsabilidad penal se extiende no solo al mando militar o supervisor civil que actúe como jefe militar con carácter efectivo, sino también a los subordinados de aquellos, con las solas excepciones previstas en su artículo 33 del ECPI.
El artículo 33 del ECPI decreta que el autor de un crimen, bajo competencia de la Corte y en cumplimiento de una orden, no será eximido de responsabilidad penal, a menos que: a) estuviere obligado por ley a obedecer órdenes emitidas por el gobierno o el superior de que se trate, b) no supiera que la orden era ilícita y c) la orden no fuera manifiestamente ilícita. Estas causales son de carácter taxativo y se presume, sin prueba contraria, que las órdenes de cometer un genocidio o crímenes de lesa humanidad son manifiestamente ilícitas.
El artículo 33 del ECPI es representativo de la “Teoría de la responsabilidad condicional” de los subordinados por crímenes de guerra. Esta teoría ha sido adoptada generalmente por las legislaciones nacionales, lo cual es ejemplificado en los manuales militares de diversos Estados, como Alemania, Israel, Italia, Suiza, Estados Unidos, entre otros,[56] al sostener que el recurso de la orden superior es, como regla general, una defensa completa.
Aun así, el subordinado puede ser encontrado responsable, junto con su superior, bajo ciertas circunstancias, tales como: el subordinado conoció o debió conocer que la orden era ilegal, o cuando la ilegalidad de la orden era manifiesta. Como antecedentes, se puede aludir al caso Dover Castle Llandovery Castle ante el Tribunal de Leipzig de 1921, en el cual se hizo referencia al estándar relativo al conocimiento de la ilegalidad de la orden por parte del subordinado. Adicionalmente, se señaló que los subordinados no pueden evitar la responsabilidad internacional individual en casos en los que son conscientes de haber obedecido órdenes ilegales.[57]
Empero, existe otra teoría de responsabilidad, en contraposición a la anterior, conocida como la “Teoría de responsabilidad absoluta”, la cual ha sido desarrollada principalmente en el contexto del derecho internacional, sobre la base del artículo 8 del Estatuto del Tribunal de Nüremberg. Esta teoría responde a que la obediencia de órdenes nunca puede ser considerada como una defensa completa, en tanto solo puede mitigar la sanción siempre que sea conforme a la justicia. También ha sido recogida en el Estatuto del Tribunal de Tokio y en los estatutos del Tribunal Penal de la ex-Yugoslavia y del Tribunal Penal de Ruanda.[58]
Si bien ambas corrientes parecen ser excluyentes entre sí, en la práctica internacional no resulta ser de este modo. De hecho, del contenido de la regla consuetudinaria internacional, con respecto a las órdenes de los superiores, tanto a nivel nacional como internacional, se deriva que las dos teorías enunciadas no son consideradas como mutuamente excluyentes, toda vez que varias legislaciones internas han adoptado ambas.[59] A su vez, la segunda aproximación se aplica a las conductas cometidas por nacionales enemigos o a aquellos que siguen órdenes basadas en un ordenamiento jurídico extranjero. [60]
No obstante, debe precisarse que a nivel nacional se utiliza la responsabilidad condicional para ofensas cometidas por nacionales o por aquellos que siguieron órdenes basadas en derecho interno. [M1] [JM2] [JM3] A nivel internacional, en cambio, se han producido intentos de sujetar la responsabilidad absoluta a los requisitos de la responsabilidad condicional, no solo desde la posición de la defensa, sino también desde la fiscalía.[61]
3.2.3. Situación de agentes no combatientes
La posibilidad de articular la responsabilidad criminal de quienes intervienen en el proceso de diseño, fabricación y desarrollo del sistema presenta, en principio, mayores dificultades. Ello se debe a que el ejercicio de facultades de mando y control, esenciales para la imputación directa del resultado, es ciertamente discutible. No obstante, se ha planteado por parte de la doctrina la posibilidad de exigir dicha responsabilidad sobre la base del artículo 25.3 del Estatuto de Roma, en virtud del cual,
… de conformidad con el presente Estatuto, será penalmente responsable y podrá ser penado por la Comisión de un crimen de la competencia de la Corte quien: […] c) Con el propósito de facilitar la comisión de ese crimen, sea cómplice o encubridor o colabore de algún modo en la comisión o la tentativa de comisión del crimen, incluso suministrando los medios para su comisión.
Lo anterior, aunque en el ámbito del derecho penal internacional no se ha admitido el dolo eventual como fundamento de responsabilidad criminal en este ámbito, por lo que la posibilidad de hacerla efectiva se antoja remota.[62]
No obstante, a diferencia del caso anterior, el operador o programador del sistema sí asume en diferente grado su mando y control, por lo que sería posible, en teoría, dirigir la acción penal también frente a estos al amparo del artículo 28 del ECPI, sin perjuicio de la responsabilidad del mando de concurrir los presupuestos anteriormente expuestos. Sin embargo, también en este caso surge el inconveniente de acreditar que el mando y control ejercido es efectivo y suficiente.[63]
Asimismo, el artículo 36 del Protocolo Adicional I, “Armas nuevas”, expresa que cuando una alta parte contratante estudie, desarrolle, adquiera o adopte un arma nueva, o nuevos medios y métodos de guerra, tendrá la obligación de determinar si su empleo, en ciertas condiciones o en todas las circunstancias, estaría prohibido por este protocolo o por cualquier otra norma de derecho internacional aplicable a esa alta parte contratante.[64]
Estas normas dejan en claro la responsabilidad sobre la producción y el uso de armas que no pueden adecuarse a las normas y los principios del derecho humanitario. Esta cuestión presupone un fuerte debate sobre el avance de nuevas tecnologías, y la dicotomía sobre las posibles consecuencias de su uso en relación con las víctimas, la economía y la preservación del combatiente que se aleja del teatro de operaciones.[65] En este sentido, la inteligencia artificial al servicio de las capacidades militares incorporaría cuantiosas ventajas operativas y reduciría costos militares, al reunir un mayor alcance destructivo a distancia, pero pondría en jaque la ausencia de control y juicio humano en decisiones complejas, lo que desafía la normativa general que regula tanto las hostilidades en el marco de la guerra como la protección de la dignidad humana en los conflictos armados.[66]
A partir de lo desarrollado se demuestra que la responsabilidad de las actuaciones de un robot en el campo de batalla implica, en primera medida, la revisión del propio armamento en los términos que estipula el artículo 36 del Protocolo Adicional I de 1977. Además, se hace indispensable contrarrestar los efectos negativos que puedan ocasionar estas armas cuando, de sus actuaciones, violen disposiciones del DIH. Empero, el artículo 36 del Protocolo Adicional I, según Hurtado Granada,[67] puede quedarse corto jurídicamente.
Esta razón se debe a que, independientemente de la mayor revisión del armamento que realicen las partes, siempre se trata de una autoevaluación y no existen más garantías que las normas escritas y los principios del DIH que buscan limitar el uso de armamento indiscriminado y que causa sufrimiento innecesario.[68] En consecuencia, se debe requerir una nueva revisión legal que tenga en cuenta estos nuevos medios y métodos de guerra desde una perspectiva holística.[69]
De cualquier modo, y como lo afirma la agencia estadounidense Defense Advanced Research Projects Agency (Darpa), el armamento debe ser producido de conformidad con las normas existentes. El problema está en que algunos países, como los Estados Unidos, no forman parte de los protocolos adicionales y otros varios tratados que limitan los medios y modos de hacer la guerra, por lo cual las únicas normas existentes para estos son las consuetudinarias y los principios del DIH que se caracterizan por su universalidad.[70]
4. Desafíos actuales: regulación o prohibición de las armas autónomas letales
Hoy en día no hay dudas acerca del desafío que representa el uso de armas autónomas en los conflictos armados. El Secretario General de las Naciones Unidas, António Guterres, apuntó que todos estos avances presentan una serie de retos y riesgos. A su parecer, la inteligencia artificial ayuda en tareas positivas como el diagnóstico médico o de vigilancia, pero señaló su preocupación sobre una faceta en la que los robots pueden sustituir a los hombres: las armas que tendrán la posibilidad de matar por sí mismas; también advirtió que la militarización de la inteligencia artificial representa un grave peligro. Dar la posibilidad de seleccionar objetivos a los robots creará enormes dificultades, ya que “hará muy difícil evitar la escalada de conflictos y garantizar el respeto del DIH en los campos de batalla. Los robots que tienen el poder y la discreción de quitar vidas humanas son políticamente inaceptables, son moralmente repugnantes y deben ser prohibidos por el derecho internacional.[71]
Por el contrario, en la práctica internacional se demuestra que países como China, Estados Unidos, Israel, el Reino Unido y Rusia han invertido numerosos recursos para el desarrollo y la producción de armas totalmente autónomas. El razonamiento fundamental de aquellos a favor de estos sistemas es que, para Zorrilla Velázquez,[72] ofrecen ventajas sustanciales que superan sus inconvenientes. Por ejemplo, sostienen que este tipo de tecnología reduciría el número de muertes civiles y militares, bajaría los costos de los conflictos armados e incrementaría la eficiencia de los ataques; asimismo, argumentan que la duración de los enfrentamientos sería mucho menor, al disminuir los daños colaterales.
Ahora bien, precisamente por los bajos costos de producción y despliegue del armamento totalmente autónomo es probable que, de manera paradójica, aumente el número de confrontaciones, debido a que los beneficios económicos y geopolíticos de las intervenciones fácilmente podrían superar la inversión. Además, los materiales necesarios para construir las armas autónomas se tornan cada vez más accesibles y baratos, por lo que el riesgo de su proliferación sería muy alto, lo que podría desencadenar una nueva carrera armamentística en el plano de la guerra automatizada.[73]
La falta de consenso radica en que, desde una perspectiva estratégica, las armas autónomas son un sueño militar. Por un lado, permitirían adaptar sus operaciones sin limitaciones de efectivos, mientras un programador podría controlar centenares de armas autónomas, lo cual llevaría a la industrialización del conflicto armado. Por otro lado, las armas autónomas aumentarían sustancialmente las opciones estratégicas, con lo cual las personas no quedarían tan expuestas y se abriría la posibilidad de emprender misiones más arriesgadas en una era de guerra 4.0.[74]
Particularmente, la República Popular China se configura en este grupo selecto de países con capacidades para el desarrollo de la inteligencia artificial al servicio de las armas autónomas letales, como un actor trascendental en su competencia directa con los Estados Unidos por la hegemonía mundial. En 2017, China presentó un ambicioso plan de inteligencia artificial mediante el cual logró objetivos en términos de cantidad de patentes, documentos de investigación e inversión.[75]
La situaciones y posturas antes descritas colocan a la comunidad internacional en serias dudas sobre el estado jurídico actual en el que se halla la tecnología robótica e informática. Las incertidumbres giran en torno de si estos sistemas de armas pueden llegar a regularse para ajustarse a las normas del DIH o, en su caso, ser prohibidos. Respecto a la primera postura, desde el año 2010, el Relator Especial de las Naciones Unidas sobre las ejecuciones extrajudiciales, sumarias o arbitrarias de 2004 a 2010, Philip Alston, propuso en su Informe seguir el camino de la regulación legítima del armamento, al pedir la constitución de un grupo de expertos en tecnología robótica y en el análisis del grado de posible cumplimiento del DIH y del derecho internacional de los derechos humanos (DIDH) por parte de estos sistemas de armas.[76]
Posteriormente, el Relator Especial de las Naciones Unidas sobre ejecuciones extrajudiciales, sumarias o arbitrarias de 2010 a 2016, Christof Heyns,[77] insistió en la misma línea y, en esencia, hace dos propuestas fundamentales. En primer lugar, plantea que todos los Estados decreten y apliquen moratorias nacionales al menos sobre el ensayo, la producción, el montaje, la transferencia, la adquisición, el despliegue y el empleo de robots autónomos letales hasta que se haya establecido un marco convenido internacionalmente sobre el futuro de esos dispositivos. En segundo lugar, propone que se convoque, con carácter prioritario, a un grupo de alto nivel sobre robots armados letales, integrado por expertos en distintos campos como el derecho, la robótica, la informática, las operaciones militares, la diplomacia, la gestión de conflictos, la ética y la filosofía.
Esta convocatoria tendría por objeto, por un lado, proponer un marco que permita a la comunidad internacional abordar de manera efectiva las cuestiones jurídicas y de política relacionadas con los robots armados letales, y formular recomendaciones sustantivas y de procedimientos concretos a ese respecto. En su labor, el grupo deberá tratar de facilitar un diálogo internacional de base amplia. Por otro lado, también tendría por objeto evaluar la idoneidad o las deficiencias de los marcos jurídicos internacionales y nacionales por los que se rigen actualmente los robots armados letales.[78]
En cualquier caso, la voluntad de posibilitar el uso de armas autónomas no es la única conclusión posible. Ciertamente, hay autores, expertos muy reconocidos en el campo de la robótica y la inteligencia artificial que, tras analizar la tecnología actual en este campo y sus carencias, así como las previsiones sobre su evolución en los próximos quince años, mantienen que la única conclusión moralmente correcta es prohibir los robots autónomos letales, pues vienen a ser una especie de armas de las que no se puede asegurar su capacidad para ajustarse plenamente a principios fundamentales del DIH.[79] Incluso, cabe destacar que la eventual prohibición de este tipo de armas autónomas no sería, en realidad, un enfoque particularmente novedoso. Un ejemplo de esto nos remonta al año 1967, cuando el Tratado General del Espacio prohibió, ex ante, la utilización y el despliegue en el espacio ultraterrestre de las armas nucleares y otras de destrucción masiva.[80]
No obstante, se debe tener presentes las conclusiones esbozadas por el CICR sobre las armas autónomas en 2021. Por un lado, el CICR entiende que el uso de armas autónomas conlleva riesgos de daño para los afectados por un conflicto armado, tanto civiles como combatientes, así como el peligro de escalada del conflicto. Por otro lado, plantea desafíos relacionados con el cumplimiento de las normas del derecho internacional, incluido el DIH, en particular, las normas relativas a la conducción de las hostilidades para la protección de los civiles. Por último, plantea cuestiones éticas fundamentales para la humanidad, en el sentido de que reemplaza la decisión humana sobre la vida y la muerte por procesos controlados por sensores, software y máquinas.[81]
De las observaciones efectuadas, el CICR recomienda que los Estados adopten nuevas normas jurídicamente vinculantes. En primer lugar, sostiene que deberían prohibirse los sistemas de armas autónomas impredecibles, principalmente por sus efectos indiscriminados. La mejor manera de hacerlo sería prohibir aquellos sistemas diseñados o utilizados de manera tal que sus efectos no puedan conocerse, preverse y explicarse adecuadamente. En segundo lugar, a la luz de las consideraciones éticas para salvaguardar la humanidad y respetar las normas del DIH para proteger a los civiles y a los combatientes fuera de combate, debería prohibirse el uso de sistemas de armas autónomas para atacar objetivos humanos; la mejor forma de lograrlo es mediante la prohibición de aquellos diseñados o utilizados para aplicar la fuerza contra seres humanos. En tercer y último lugar, a fin de proteger a los civiles y a los bienes de carácter civil, se deben respetar las normas del DIH y salvaguardar la humanidad; el diseño y el uso de los sistemas de armas autónomos que no se prohíban deberían regularse, incluso mediante una combinación de: limitación de los tipos de objetivos, limitación de la duración, limitación de las situaciones de uso y requisitos de interacción entre el usuario y la máquina, en especial, para garantizar que haya una supervisión humana efectiva y que la intervención y la desactivación se realicen a tiempo.[82]
Pese a las posiciones encontradas frente a las armas autónomas, Ibáñez[83] entiende que una regulación legal en la materia se encuentra lejos en el tiempo por falta de voluntad política. Según la citada autora, salvo que se produzca un suceso catastrófico que involucre un sistema autónomo (armado o no), las conversaciones podrían eternizarse sin alcanzar el consenso requerido para promulgar las normas indispensables. En ese caso, resultará necesario el estudio de todas las posibilidades que se requieren para cumplir con las exigencias internacionales que debe implicar el uso de las armas autónomas. Hasta tanto no exista un consenso por una solución u otra, la utilización del armamento podría conllevar serios cuestionamientos a la hora de adoptar una decisión en concreto cuando se vulneren los derechos humanos en el campo de batalla por el uso de las armas autónomas.
Hasta la fecha, existen argumentos en contra de la propuesta de un tratado internacional prohibitivo. En primer lugar, insisten en partir de los supuestos de que estas tecnologías son inevitables y que su desarrollo es incremental. Luego presentan un argumento adicional, al afirmar que algunos de estos sistemas pueden tener ventajas humanitarias y, por lo tanto, las prohibiciones son tanto "impracticables" como "éticamente cuestionables". Sin embargo, no brindan evidencia ni razones suficientes para respaldar ninguno de los supuestos que defienden, de modo tal que existen fuertes motivos para rechazarlos, sobre todo cuando los sistemas de armas autónomas más precisos ponen en peligro los derechos humanos.[84]
En definitiva, la utilización de las armas autónomas representa grandes riesgos y peligros para la seguridad global y la estabilidad internacional, por lo que el empleo de estos sistemas en el escenario internacional puede derivar en su “proliferación”. Sin un límite al desarrollo, la prueba y producción de armas autónomas es probable que comiencen a incrementarse de forma acelerada. Sumado a ello, no todas las naciones tendrán la capacidad de llevar a cabo las revisiones pertinentes, de manera que estos sistemas se adapten a los requerimientos del DIH.[85]
Al respecto, un tema recurrente en la doctrina sobre la adquisición de tecnologías avanzadas es el problema que generaría que estos sistemas sean controlados por grupos terroristas. Si bien se busca reconocer que, para grupos de estas características presenta grandes dificultades obtener los recursos y conocimientos necesarios, las nuevas tecnologías siempre son una oportunidad para resolver obstáculos de la manera más eficiente posible.[86]
Al mismo tiempo, las armas autónomas podrían conducir a los Estados a utilizar la violencia sin realizar los procedimientos de consulta legales requeridos para hacer uso de las armas autónomas en un territorio. Los países se verían así seducidos a participar en más conflictos armados, a expensas de la desprotección de las poblaciones civiles.[87]
Por su parte, y como sucede actualmente, las operaciones encubiertas que requieran de la utilización de estos sistemas podrían aumentar de manera exponencial. La “interacción entre sistemas de armas” es una situación potencial que podría causar grandes accidentes en poblaciones civiles. En efecto, a medida que más países empleen armas autónomas con “técnicas de enjambre”, se interrelacionarán inevitablemente. Y cuando algún dispositivo móvil controlado por software interactúe con dispositivos hostiles controlados por software desconocidos, el resultado de dicha interacción sería científicamente imposible de predecir, y, por ende, es importante tener en cuenta su impacto en poblaciones civiles.[88]
El incremento de la mencionada interrelación entre sistemas autónomos y la velocidad de esa interacción impredecible puede desencadenar un conflicto armado de manera accidental, antes de que el elemento humano tenga la posibilidad de reaccionar. La aceleración generada por el ritmo de batalla será tal, que la toma de decisiones humana no podrá ser lo suficientemente rápida. Debido a esto, las armas autónomas requerirán el desarrollo de sistemas de respuestas de defensa más rápidos, y en este proceso se reducirá aún más el control humano sobre el campo de batalla.[89]
Finalmente, y como principio general, el CICR sostiene que debe ser esencial preservar el control y el juicio humano en las aplicaciones de inteligencia artificial y aprendizaje automático para tareas y decisiones que pueden tener graves consecuencias para la vida de las personas, especialmente cuando representan un riesgo para la existencia humana y cuando las tareas o decisiones se rigen por normas específicas del DIH. En consecuencia, los sistemas de inteligencia artificial y aprendizaje automático siguen siendo herramientas que deben usarse para servir a los actores humanos y aumentar los tomadores de decisiones humanos, no reemplazarlos.[90]
Conclusiones
A lo largo de este artículo se buscó demostrar que el gran avance de la tecnología artificial, aplicada a la industria armamentística, requiere de un serio análisis de las consecuencias futuras que esto podría generar en los conflictos armados, al ser incompatibles con los principios rectores del DIH, ya que en estas circunstancias tanto los Estados como los combatientes están obligados a proporcionar todas las diligencias que sean necesarias para un manejo responsable de las hostilidades. En cuanto a la responsabilidad internacional, deben considerarse responsables por el uso indebido de las armas autónomas a los Estados y a los sujetos intervinientes en la fabricación, uso y orden de ataque de estas.
De aquí se desprende la idea de que las posibles soluciones deben darse a través de la promoción, prevención y protección del DIH frente a los Estados y combatientes que realizan operaciones con dicho armamento, a través de la prohibición internacional del uso de armas autónomas para los conflictos armados, tanto para los que sean utilizados para atacar objetivos civiles, de efectos impredecibles, como para atacar objetivos militares por naturaleza.
Para finalizar, el debate vigente en la comunidad internacional sobre el tema ha manifestado un primer avance en cuanto a la preocupación existente en torno a otorgar soluciones al respecto. Entretanto, establecer un marco de regulación pertinente representa un gran desafío, no solo por el problema de los conflictos de intereses que puedan existir entre los Estados involucrados, sino por los cambios generados en cuanto al nuevo manejo de las hostilidades. En este sentido, se sostiene la importancia de ponderar la garantía de los derechos de las personas vulnerables contra la peligrosidad de las armas autónomas a través de garantías que surgen del Estado de derecho, vinculadas con el respeto de los principios del DIH y de los mandatos internacionales ius cogens sobre derechos humanos para aminorar, lo máximo posible, la deshumanización de los conflictos armados.
Esta idea busca apreciar una oportunidad para mejorar aspectos vulnerados por la existencia de vacíos legales sobre la cuestión, ya sea en relación con los derechos humanos, la tecnología y la vida, así como otros desafíos que puedan surgir en el futuro. Este tiempo servirá para reflexionar acerca de qué mundo se quiere construir para la posteridad, qué derechos se quieren proteger y cómo los Estados deberán resguardar de ahora en adelante a las víctimas de los conflictos armados en beneficio no solo de los Estados afectados, sino también de toda la comunidad internacional. Las nuevas tecnologías y el DIH demuestran que, para resolver problemas mundiales, los Estados y las organizaciones internacionales deben apoyarse entre sí con miras a la protección de los derechos humanos para evitar conflictos; si estos ocurren, se tornan fundamentales las herramientas necesarias para responder de la mejor forma posible.
Referencias
[1] El presenté artículo es una versión ampliada y profundizada del trabajo final de investigación como condición de egreso para la carrera de abogacía de la Facultad de Ciencias Jurídicas y Sociales de la Universidad de Mendoza.
[1] Alfonso López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, Cuadernos de estrategia, 201 (2019), p. 181.
[2] Catalina Hierro Hernández-Mora, Las armas letales autónomas en el Derecho Internacional Humanitario: ¿avance o amenaza?, Madrid, Universidad Pontificia Comillas, 2019, p. 30.
[3] En este trabajo se utilizará el término robot para equipararlo conceptualmente con las armas autónomas, definidas como aquellas que, provistas de cierta complejidad tanto en sus componentes como en su diseño o en su comportamiento, manipulan información acerca de su entorno para así interactuar con él. Ver Juan García, “¿Qué es un robot?”, en Andrés Moisés Barrio (dir.), Derecho de los Robots, Wolters Kluwer, 2018, p. 38.
[4] Human Rights Watch, Losing Humanity: The Case against Killer Robots, Boston, Human Rights Clinic (IHRC), Harvard Law School’s International, 2012, p. 39.
[5] Comité Internacional de la Cruz Roja, “Armas autónomas: las decisiones de matar y destruir son una responsabilidad humana”, Ginebra, 2016, en https://www.icrc.org/es/document/armas-autonomas-las-decisiones-de-matar-y-destruir-son-una responsabilidad-humana, fecha de consulta: 23 de agosto de 2021.
[6] Hierro Hernández-Mora, Las armas letales autónomas en el Derecho Internacional Humanitario: ¿avance o amenaza?,op. cit, p. 19.
[7]Ibid., pp. 18-19.
[8] Diego Martín Chávez, Camila Cruz García y Paula Andrea Herrera Jaramillo, “Robots asesinos: ¿realidad o ficción? Los sistemas de armas autónomas en el marco del Derecho Internacional Humanitario”, USFQ Law Review, 6 (1) (2019), p. 14.
[9] Comité Internacional de la Cruz Roja, 32 Conferencia Internacional de la Cruz Roja y de la Media Luna Roja, Ginebra, 2015, p. 58.
[10]Ibid., pp. 58-59.
[11] Fulvio Queirolo Pellerano, “Sistemas de armas autónomos letales (laws)”. Reflexiones para un debate”, Revista Política y Estrategia, 0 (134) (2019), p. 153.
[12]Idem.
[13]Ibid., p. 154.
[14] Naciones Unidas, Informe del período de sesiones de 2019 del Grupo de Expertos Gubernamentales sobre las Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomos Letales, Ginebra, United Nations Office for Disarmament Affairs, 2019, p. 3.
[15]Ibid., p. 4.
[16] Hortensia Gutiérrez Posse, Elementos de derecho internacional humanitario, Buenos Aires, Eudeba, 2014, p. 72.
[17]Idem.
[18]Ibid, p. 71.
[19] María de los Ángeles de Varona, “Breve comentario sobre el desafío que para el DIH representan las armas autónomas”, 2016, en https://files.sld.cu/derinthumanitario/files/2016/03/las-armas-autonomas y-el-dih-dr-c-leonel-gorrin-merida.pdf, fecha de consulta: 20 de septiembre de 2021.
[20] Hierro Hernández-Mora, Las armas letales autónomas en el Derecho Internacional Humanitario: ¿avance o amenaza?, op. cit., p. 31.
[21] Noel Sharkey, “The evitability of autonomous robot warfare”, International Review of the Red Cross, 94 (2012), pp. 788-789.
[22] Se entiende por conflictos armados asimétricos aquellos en que se enfrentan Estados inmensamente poderosos contra grupos armados que suelen estar mal organizados y tener un equipamiento inadecuado, obligando a los grupos de oposición a operar de manera infiltrada, a fin de evitar ser identificados y derrotados. Para ello, se entremezclan con la población civil y participan en diversas formas de guerrilla urbana. Como consecuencia, los enfrentamientos militares suelen tener lugar en medio de zonas densamente pobladas, lo cual no solo expone a la población civil a mayores riesgos de sufrir daños incidentales, sino que también facilita la participación directa de civiles en las hostilidades. Ver Nils Melzer, Derecho internacional humanitario. Una introducción integral, Ginebra, Comité Internacional de la Cruz Roja, 2019, p. 42.
[23] Cesáreo Gutiérrez Espada y María Jose Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, Revista del Instituto Español de Estudios Estratégicos, 2 (2013), p. 9.
[24] Leonel Gorrín Mérida, “Las armas autónomas y el DIH”, 2016, en https://files.sld.cu/derinthumanitario/files/2016/03/las-armas-autonomas-y-el-dih-dr-c-leonel-gorrin-merida.pdf, fecha de consulta: 12 de septiembre de 2021.
[25] Gabriel Pablo Valladares, “El derecho Internacional Humanitario”, en Ricardo Arredondo, Curso de Derecho Internacional Público, Buenos Aires, Ad-Hoc, 2021, p. 334.
[26] Gorrín Mérida, “Las armas autónomas y el DIH”, op. cit.
[27] Valladares, “El derecho Internacional Humanitario”, op. cit., p. 333.
[28] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit, p. 187.
[29] Gorrín Mérida, “Las armas autónomas y el DIH”, op. cit.
[30] Corte IDH, Caso Masacre de Santo Domingo vs. Colombia, Excepciones Preliminares, Fondo y Reparaciones, Serie C, núm. 259, 2012, párr. 216.
[31] Melzer, Derecho internacional humanitario. Una introducción integral, op. cit., p. 114.
[32]Ibid., p. 19.
[33] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., p. 189.
[34] Elizabeth Salmón, Introducción al Derecho Internacional Humanitario, Lima, Instituto de Democracia y Derechos Humanos PUCP, CICR, 2004, p. 54.
[35] Frits Kalshoven y Liesbeth Zegveld, Restricciones en la conducción de la guerra, Buenos Aires, CICR, 2005, p. 12.
[36] Valladares, “El derecho Internacional Humanitario”, op. cit., pp. 330-331.
[37] Naciones Unidas, Informe del período de sesiones de 2019 del Grupo de Expertos Gubernamentales sobre las Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomos Letales, Ginebra, United Nations Office for Disarmament Affairs, 2019, p. 4.
[38]Idem.
[39] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., p. 192.
[40] Jakob Kellenberger y Philip Spoerri, “International Humanitarian Law and New Weapon Technologies, 34th Round Table on current issues of international humanitarian law, San Remo, 8-10 September 2011”, International Review of the Red Cross, 94 (2012), p. 816.
[41] Gutiérrez Espada y Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, op. cit., pp. 9-10.
[42]Ibid., p. 11.
[43]Ibid., p.12.
[44] Hierro Hernández-Mora, Las armas letales autónomas en el Derecho Internacional Humanitario: ¿avance o amenaza?,op. cit., p. 39.
[45] Milton Meza Rivas, “Los sistemas de armas autónomos: crónica de un debate internacional y prospectivo dentro de Naciones Unidas”, bie3: Boletín IEEE, (10) (2018), p. 19.
[46] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., p. 193.
[47] Naciones Unidas, Proyecto de Artículos sobre responsabilidad del Estado por hechos internacionalmente ilícitos, 53° período de sesiones CDI (A/56/10) y anexado por la AG en su Resolución 56/83, 2010.
[48] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., pp. 194-195.
[49]Idem.
[50] William Boothby, “Some legal challenges posed by remote attack”, International Review of the Red Cross, 94 (2012), p. 589.
[51] Martha Isabel Hurtado Granada, “Los límites del Derecho Internacional Humanitario a las armas autónomas”, Revista Científica General José María Córdova, 15(20) (2017), p. 90.
[52] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., p. 195.
[53]Ibid., pp. 195-197.
[54] Gutiérrez Espada y Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, op. cit., p. 11.
[55] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., p. 195.
[56] Juan Pablo Pérez-León Acevedo, “La obediencia del subordinado a las órdenes superiores en casos de crímenes de guerra. Análisis a la luz del Derecho Internacional”, Agenda Internacional, Año XIII, 24 (2007), pp. 381-382.
[57]Idem.
[58]Ibid, pp. 384-385.
[59] Algunos ejemplos de legislaciones internas se encuentran en el decreto francés de 1944, artículo 3; Código Penal francés, artículo 327; Ley Belga de 1947, artículo 3 (en concordancia con el Código Penal belga, artículo 70); War Crimes Act de Holanda de 1952 –concordado con el artículo 43 del Código Penal holandés–; Regulaciones de Estados Unidos para el proceso de crímenes de guerra (expedido por el cuartel general de operaciones en el Mediterráneo) de 23 de septiembre de 1945, parágrafo 9 (ver Pérez-León Acevedo, “La obediencia del subordinado a las órdenes superiores en casos de crímenes de guerra. Análisis a la luz del Derecho Internacional”, op. cit., p. 384).
[60] Idem.
[61]Idem.
[62] López-Casamayor Justicia, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, op. cit., p. 197.
[63]Ibid., pp. 197-198.
[64] De Varona, “Breve comentario sobre el desafío que para el DIH representan las armas autónomas”, op. cit.
[65]Idem.
[66] Cristian Reyes, “Laws: inteligencia artificial al servicio de nuevos formatos bélicos”, Boletín del departamento de seguridad internacional y defensa. Instituto de Relaciones Internacionales, 42 (2021), p. 12.
[67] Hurtado Granada, “Los límites del Derecho Internacional Humanitario a las armas autónomas”, op. cit., p. 96.
[68]Idem.
[69] Liu Hin-Yan, “Categorization and legality of autonomous and remote weapons systems”, International Review of the Red Cross, 94 (2012), p. 639.
[70] Hurtado Granada, “Los límites del Derecho Internacional Humanitario a las armas autónomas”, op. cit., p. 97.
[71] Naciones Unidas, Las armas autónomas deben ser prohibidas en el derecho internacional, ONU News, 2018, en https://news.un.org/es/story/2018/11/1444982, fecha de consulta: 17 de septiembre de 2021.
[72] Daniel Zorrilla Velázquez, “Por la prohibición de los ‘robots asesinos’”, Revista Foreing Affairs Latinoamérica, (2021), en https://revistafal.com/por-la-prohibicion-de-los-robots-asesinos/, fecha de consulta: 20 de septiembre de 2021.
[73]Idem.
[74] Toby Walsh, “Killer Robots. La inteligencia artificial y las armas autónomas”, Revista Idees, 2020, en https://revistaidees.cat/es/killer-robots/, fecha de consulta: 21 de septiembre de 2021.
[75] Reyes, “Laws: inteligencia artificial al servicio de nuevos formatos bélicos”, op. cit., p. 16.
[76] Gutiérrez Espada y Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, op. cit., p. 12.
[77] Christof Heyns, Informe del Relator Especial sobre las ejecuciones extrajudiciales, sumarias o arbitrarias, A/HCR/23/47, 2013, pp. 17-18.
[78]Ibid., p. 24.
[79] Noel Sharkey, “Automated killers and the computing profession”, Computer 40, 11 (2007), p. 791.
[80] Gutiérrez Espada y Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, op. cit., p. 14.
[81] Comité Internacional de la Cruz Roja, “Posición del CICR sobre los sistemas de armas autónomos”, 2021, en icrc.org/es/document/posicion-del-cicr-sobre-los-sistemas-de-armas-autonomos, fecha de consulta: 10 de abril de 2022.
[82]Idem.
[83] Eva Martín Ibáñez, “La autonomía en robótica y el uso de la fuerza”, bie3: Boletín IEEE, (27) (2017), p. 855.
[84] Peter Asaro, “On banning autonomous weapon systems: Human rights, automation, and the dehumanization of lethal decision-making”, International Review of the Red Cross, 94 (2012), p. 704.
[85] Pablo Pugliese y Bautista Griffini, “Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) en los conflictos armados modernos”, Revista Perspectivas Revista de Ciencias Sociales, Año 6,11 (2021), pp. 397-399.
[86]Idem.
[87]Idem.
[88]Idem.
[89]Idem.
[90] ICRC, “Artificial intelligence and machine learning in armed conflict: A human-centred approach”, 2019, en https://www.icrc.org/en/document/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach, fecha de consulta: 29 de marzo de 2022.
Bibliografía
DOCTRINA
Asaro, Peter, “On banning autonomous weapon systems: Human rights, automation, and the dehumanization of lethal decision-making”, International Review of the Red Cross, 94 (2012), pp. 687-709.
Boothby, William, “Some legal challenges posed by remote attack”, International Review of the Red Cross, 94 (2012), pp. 579-595.
Chávez, Diego Martín, Camila Cruz García y Paula Andrea Herrera Jaramillo, “Robots asesinos: ¿realidad o ficción? Los sistemas de armas autónomas en el marco del Derecho Internacional Humanitario”, USFQ Law Review, 6 (1) (2019), pp. 12-28.
Comité Internacional de la Cruz Roja, “Armas autónomas: las decisiones de matar y destruir son una responsabilidad humana”, Ginebra, 2016, en https://www.icrc.org/es/document/armas-autonomas-las-decisiones-de-matar-y-destruir-son-una-responsabilidad-humana.
Comité Internacional de la Cruz Roja, 32 Conferencia Internacional de la Cruz Roja y de la Media Luna Roja, Ginebra, 2015.
Comité Internacional Cruz Roja, “Posición del CICR sobre los sistemas de armas autónomos”, 2021, en icrc.org/es/document/posicion-del-cicr-sobre-los-sistemas-de-armas-autonomos.
De Varona, María de los Ángeles, “Breve comentario sobre el desafío que para el DIH representan las armas autónomas”, 2016, en https://files.sld.cu/derinthumanitario/files/2016/03/las-armas-autonomas-y-el-dih-dr-c-leonel-gorrin-merida.pdf.
García, Juan, “¿Qué es un robot?”, en Andrés Moisés Barrio (dir.), Derecho de los Robots, Wolters Kluwer, 2018, pp. 25-60.
Gorrín Mérida, Leonel, “Las armas autónomas y el DIH”, 2016, en https://files.sld.cu/derinthumanitario/files/2016/03/las-armas-autonomas-y-el-dih-dr-c-leonel-gorrin-merida.pdf.
Gutiérrez Espada, Cesáreo y María José Cervell Hortal, “Sistemas de armas autónomas, drones y derecho internacional”, Revista del Instituto Español de Estudios Estratégicos, 2 (2013), pp. 27-57.
Gutiérrez Posse, Hortensia, Elementos de derecho internacional humanitario, Eudeba, Buenos Aires, 2014.
Heyns, Christof, Informe del Relator Especial sobre las ejecuciones extrajudiciales, sumarias o arbitrarias (A/HCR/23/47), 2013.
Hierro Hernández-Mora, Catalina, Las armas letales autónomas en el Derecho Internacional Humanitario: ¿avance o amenaza?, Madrid, Universidad Pontificia Comillas,2019.
Hin-Yan, Liu, “Categorization and legality of autonomous and remote weapons systems”, International Review of the Red Cross, 94 (2012), pp. 627-652.
Human Rights Watch, Losing Humanity: The Case against Killer Robots, Boston, Human Rights Clinic (IHRC), Harvard Law School’s International, 2012.
Hurtado Granada, Martha Isabel, “Los límites del Derecho Internacional Humanitario a las armas autónomas”, Revista Científica General José María Córdova, 15 (20) (2017), pp. 85-100.
ICRC, “Artificial intelligence and machine learning in armed conflict: A human-centred approach”, 2019, en https://www.icrc.org/en/document/artificial-intelligence-and-machine-learning-armed-conflict-human-centred-approach.
Kalshoven, Frits y Liesbeth Zegveld, Restricciones en la conducción de la guerra, Buenos Aires, CICR, 2005.
Kellenberger, Jakob y Philip Spoerri, “International Humanitarian Law and new weapon technologies, 34th Round Table on current issues of International Humanitarian Law, San Remo, 8-10 September 2011”, International Review of the Red Cross, 94 (2012), pp. 809-817.
López-Casamayor Justicia, Alfonso, “Armas letales autónomas a la luz del derecho internacional humanitario: legitimidad y responsabilidad”, Cuadernos de Estrategia, 201 (2019), pp. 177-213.
Martín Ibáñez, Eva, “La autonomía en robótica y el uso de la fuerza”, bie3: Boletín IEEE, (27) (2017), pp. 842-855.
Melzer, Nils, Derecho internacional humanitario. Una introducción integral, Ginebra, Comité Internacional de la Cruz Roja, 2019.
Meza Rivas, Milton, “Los sistemas de armas autónomos: crónica de un debate internacional y prospectivo dentro de Naciones Unidas”, bie3: Boletín IEEE, (10) (2018), pp. 434-451.
Pérez-León Acevedo, Juan Pablo, “La obediencia del subordinado a las órdenes superiores en casos de crímenes de guerra. Análisis a la luz del Derecho Internacional”, Agenda Internacional, Año XIII, 24 (2007), pp. 371-407.
Pugliese, Pablo y Bautista Griffini, “Implicaciones del uso de los Sistemas de Armas Autónomas Letales (Laws) en los conflictos armados modernos”, Revista Perspectivas Revista de Ciencias Sociales, Año 6, 11 (2021), pp. 383-404.
Queirolo Pellerano, Fulvio, “Sistemas de armas autónomos letales (laws). Reflexiones para un debate”, Revista Política y Estrategia, 0(134) (2019), pp. 147-170.
Reyes, Cristian, “Laws: inteligencia artificial al servicio de nuevos formatos bélicos”, Boletín del Departamento de Seguridad Internacional y Defensa. Instituto de Relaciones Internacionales, 42 (2021), pp. 12-17.
Salmón, Elizabeth, Introducción al Derecho Internacional Humanitario, Idehpucp, CICR, 2004.
Sharkey, Noel, “Automated killers and the computing profession”, Computer 40, 11 (2007).
Sharkey, Noel, “The evitability of autonomous robot warfare”, International Review of the Red Cross, 94 (2012), pp. 787-799.
Valladares, Gabriel Pablo, “El derecho internacional humanitario”, en Ricardo Arredondo, Curso de Derecho Internacional Público, Buenos Aires, Ad-Hoc, 2021, pp. 329-342.
Walsh, Toby, “Killer Robots. La inteligencia artificial y las armas autónomas”, Revista Idees, 2020, en https://revistaidees.cat/es/killer-robots/.
Zorrilla Velázquez, Daniel, “Por la prohibición de los “robots asesinos”, Revista Foreing Affairs Latinoamérica, 2021, en https://revistafal.com/por-la-prohibicion-de-los-robots-asesinos/.
JURISPRUDENCIA INTERNACIONAL
Corte IDH, Caso Masacre de Santo Domingo vs. Colombia, Excepciones Preliminares, Fondo y Reparaciones, Serie C, núm. 259, 2012.
NORMATIVIDAD INTERNACIONAL
Naciones Unidas, Proyecto de Artículos sobre responsabilidad del Estado por hechos internacionalmente ilícitos, 53° período de sesiones CDI (A/56/10) y anexado por la AGen su Resolución 56/83, 2010.
Naciones Unidas, Las armas autónomas deben ser prohibidas en el derecho internacional, ONU News, 2018, en https://news.un.org/es/story/2018/11/1444982.
Naciones Unidas, Informe del período de sesiones de 2019 del Grupo de Expertos Gubernamentales sobre las Tecnologías Emergentes en el Ámbito de los Sistemas de Armas Autónomos Letales, United Nations Office for Disarmament Affairs, 2019.