Las IA en la guerra: ¿un arma de doble filo?


Por: Gilberto Solorza

La Inteligencia Artificial (IA) ha dejado de ser una mera curiosidad tecnológica para convertirse en un protagonista destacado de nuestras vidas.

Desde los chatbots como ChatGPT hasta las aplicaciones de IA en servicios públicos, su impacto es innegable. Pero hay un ámbito en el que la IA ha dado un giro sorprendente: la guerra. ¿Estamos ante una revolución en la forma de hacerla o ante un riesgo que podría desbordarnos?

El peligro de la autonomía sin control humano

Una de las principales preocupaciones sobre el uso de la IA en el ámbito militar es la autonomía en la toma de decisiones. Estos sistemas están diseñados para operar de forma independiente, sin intervención humana directa, lo que plantea interrogantes sobre la responsabilidad de las decisiones tomadas, la posibilidad de errores y las consecuencias de acciones no deseadas. La falta de supervisión humana podría resultar en escenarios imprevistos con graves implicaciones.

Municiones merodeadoras: los drones kamikaze

Uno de los ejemplos más alarmantes de la IA aplicada a la guerra son las municiones merodeadoras, drones inteligentes capaces de identificar y perseguir objetivos enemigos de manera autónoma, sacrificándose en el proceso, similar a un ataque kamikaze. Estas armas ya están siendo utilizadas en el conflicto entre Rusia y Ucrania, lo que genera aún más inquietud sobre el control de armas letales sin intervención humana.

Ciberataques: el riesgo de la manipulación

Además, está el riesgo de que los sistemas de IA sean hackeados o manipulados por actores maliciosos. Si los adversarios lograran infiltrarse en estos sistemas, podrían comprometer la seguridad de las operaciones militares, obtener información confidencial o incluso tomar control de armas autónomas, poniendo en peligro la integridad de la misión.

El Centro de Análisis de la Política Europea (CEPA) ha señalado esta vulnerabilidad en el caso de Iron Dome, un sistema de defensa utilizado en el conflicto palestino-israelí. Este sistema, basado en algoritmos de detección y destrucción de misiles, ha demostrado ser efectivo, pero también es susceptible a manipulaciones externas. Las posibles amenazas de ciberataques a este tipo de tecnología subrayan la necesidad de reforzar la seguridad de los sistemas de IA en el ámbito militar.

Desafíos éticos y prácticos de la IA militar

Aunque la IA ofrece ventajas significativas en la guerra, como mayor precisión y velocidad en las operaciones, su uso también conlleva serios desafíos éticos y prácticos. La autonomía de las máquinas en la toma de decisiones bélicas plantea cuestiones sobre la responsabilidad, la transparencia y la ética en el uso de la fuerza. Es imperativo que se establezcan marcos normativos y mecanismos de control para garantizar que la supervisión humana siga siendo un pilar fundamental en la implementación de la IA en el ámbito militar.

Noticias relacionadas

MÁS NOTICIAS