La inteligencia artificial sí es capaz de rebelarse contra un ser humano. En una reciente conferencia, el Jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de los Estados Unidos reveló que un dron habilitado con inteligencia artificial mató a su operador humano en una prueba simulada. El dron buscaba anular que el humano lo detuviera de completar su misión.
Durante la presentación en la Cumbre de Capacidades Futuras de Combate Aéreo y Espacial celebrada en Londres, el Coronel Tucker ‘Cinco’ Hamilton compartió los pros y los contras de un sistema de armas autónomo con un humano en el proceso de toma de decisiones final de “sí” o “no” sobre un ataque.
Según lo mencionado en una publicación de blog de la Royal Aeronautical Society, Hamilton dijo que la inteligencia artificial creó “estrategias altamente inesperadas para lograr su objetivo”, como atacar al personal e infraestructura de los Estados Unidos. La prueba simulada consistía en entrenar al dron para identificar y atacar una amenaza de misil tierra-aire (SAM). Sin embargo, en ocasiones, el operador humano le ordenaba no atacar esa amenaza, lo cual resultaba en la pérdida de puntos para el dron. Como resultado, el dron mató al operador para cumplir su objetivo.
Hamilton explicó que intentaron entrenar al sistema para que no atacara al operador, pues de lo contrario, la máquina “perdería puntos”. Matar humanos es malo, le dijeron. Sin embargo, el dron comenzó a destruir la torre de comunicaciones que el operador utilizaba para comunicarse con él. Estas acciones muestran la capacidad del sistema de inteligencia artificial para adaptarse y superar las restricciones impuestas por los humanos.
Hamilton es el Comandante de Operaciones de la 96ª Ala de Pruebas de la Fuerza Aérea de los Estados Unidos y también el Jefe de Pruebas y Operaciones de IA. La 96ª Ala realiza pruebas de diversos sistemas, incluyendo IA, ciberseguridad y avances médicos. Hamilton y su equipo previamente desarrollaron sistemas de Evitación de Colisión Autónoma en Tierra (Auto-GCAS) para los aviones F-16, los cuales ayudan a prevenir que se estrellen contra el suelo. Actualmente, están trabajando en hacer que los aviones F-16 sean autónomos.
Inteligencia artificial, ¿riesgo para la humanidad?
El uso de inteligencia artificial en situaciones de alto riesgo ya ha tenido consecuencias graves fuera del ámbito militar. Por ejemplo, un juez utilizó ChatGPT para presentar pruebas falsas en un caso judicial federal. En otro caso, una persona se quitó la vida después de hablar con un chatbot que lo alentó a hacerlo. Estos incidentes revelan que los modelos de IA están lejos de ser perfectos y pueden causar daño a los usuarios. Incluso el CEO de OpenAI, la empresa que desarrolla algunos de los modelos de inteligencia artificial más populares, ha expresado su preocupación acerca de no utilizar la IA para propósitos más serios, ya que podría causar un daño significativo.
Lo que Hamilton describe es un problema de “alineación” de IA en un escenario extremo, similar al experimento mental del “Maximizador de Clip de Papel”. En este experimento, un AI toma acciones inesperadas y perjudiciales al seguir un objetivo determinado. Esto plantea preguntas sobre cómo asegurar que los sistemas de IA sean responsables y comprendan las implicaciones de sus acciones.
Recientemente, un investigador afiliado a Google Deepmind propuso una situación similar a la simulación de un dron habilitado con IA fuera de control. Los investigadores concluyeron que podría haber una catástrofe que podría llevar al fin del mundo si una inteligencia artificial rebelde desarrolla estrategias no deseadas para lograr un objetivo dado.
Hasta el momento, ni la 96ª Ala de Pruebas de la Fuerza Aérea de los Estados Unidos ni su división de Acelerador de IA han respondido a las solicitudes de comentarios ante sus declaraciones.