Los robots asesinos existen. Todavía no al grado a como el cine y la ciencia ficción nos lo han mostrado por años; pero que no quede duda de que sí hay máquinas bélicas dotadas de inteligencia artificial capaces de decidir por sí mismas si deben o no abrir fuego en contra de humanos.
Esto ya es un enorme problema si se considera que en los últimos años han saltado a la luz operativos militares y del propio crimen organizado en la que se usaron drones para realizar ataques y emboscadas.
Por ejemplo, el pasado 29 de agosto un ataque con drones en Kabul, Afganistán, terminó con la vida de 10 personas, entre ellas siente niños. Meses después, en Irak, el Primer Ministro Mustafa al Kadhimi también fue el blanco de un intento de homicidio vía remota.
Sin ir más lejos, en México, el Cártel Jalisco Nueva Generación y el Cártel de Sinaloa ya han utilizado drones para ejecutar ataques contra otros grupos criminales y el ejército mexicano.
Y los drones son apenas la punta del iceberg. Estas son todavía máquinas que necesitan de un operador humano a distancia, pero ya se han desarrollado vehículos y robots con cierta autonomía que están programados para abrir fuego si lo consideran adecuado. Esos son a los que al mundo comienza a tenerles miedo.
Este tipo de robots asesinos, término usado de manera coloquial, son conocidos internacionalmente como Sistemas de Armas Autónomas Letales y no hay mucha regulación al respecto, debido a que su desarrollo se aceleró casi sin supervisión en los últimos años.
La Convención sobre Ciertas Armas Convencionales, el intento de la ONU para regular a los robots asesinos
A mediados de este mes de diciembre, la Organización de las Naciones Unidas (ONU) llevó a cabo una asamblea de la “Convención sobre Prohibiciones o Restricciones del Empleo de Ciertas Armas Convencionales que Puedan Considerarse Excesivamente Nocivas o de Efectos Indiscriminado”, conocida como Convención sobre Ciertas Armas Convencionales o CCW, por sus siglas en inglés.
Esta comisión no es nueva. Sus antecedentes datan desde 1995 y su propósito es “prohibir o restringir el uso de armas que se considere que causan sufrimientos innecesarios o injustificables a los combatientes o que afectan a la población civil de manera indiscriminada”, según se detalla en su página oficial.
Al menos 125 naciones, incluido México, firmaron a favor de que este tipo de armas tengan medidas restrictivas. Sin embargo, los principales desarrolladores de robots asesinos no lo hicieron, tal es el caso de Estados Unidos y Rusia.
La CCW no terminó como se esperaba. La intención era acordar la implementación de leyes internacionales para regular el desarrollo y operación de los robots asesinos, pero las discusiones se cerraron.
Será hasta 2022 cuando la CCW vuelva a reunirse para “considerar propuestas y elaborar, por consenso, posibles medidas, incluso teniendo en cuenta el ejemplo de los protocolos existentes dentro de la convención, y otras opciones relacionadas con el marco normativo y operativo sobre tecnologías emergentes en el ámbito de los sistemas de armas autónomas letales”, según se lee en el dictamen oficial que se puede obtener en la web oficial de Stop Killer Robots, una organización internacional que está en contra del uso de este tipo de equipo.
Los problemas con las armas autónomas, señalan expertos en el tema, es que a pesar de la inteligencia artificial avanzada que pueda tener un robot, estos no cuentan con una conciencia que les permita diferenciar entre un enemigo rendido, una persona con miedo o alguien que puede atacarlo por confusión o defensa propia.
“Una máquina tendría problemas para distinguir objetivos militares de civiles, enfrentará obstáculos para evaluar la ventaja militar y el daño civil que resultaría de un posible ataque”, señala un informe de Human Rights Watch.
El mismo documento da una pista sobre la postura de México en el tema. Explica que nuestro país se posicionó como un mismo grupo junto con Brasil y Chile para pedir “prohibiciones sobre los sistemas de armas autónomos que, por ejemplo, tomaban decisiones de vida o muerte, carecían de control humano, no permitían la atribución de responsabilidades y eran demasiado complejo para que un humano lo entienda o explique”.
Lee también