25 de abril de 2026

Munición merodeadora: la inteligencia artificial en tiempos de guerra

Estos dispositivos son los que suelen estar relacionados con el término «Inteligencia Artificial» (IA). Pero, de hecho, el «dron kamikaze» no es tan inteligente, y el alcance de la IA en asuntos militares es mucho más amplio.

Rusia está utilizando ampliamente la llamada «munición merodeadora» (o «drones kamikaze») contra Ucrania. Esta se trata de una mezcla entre un dron «normal» y un cohete. En teoría, este tipo de munición puede bombardear una zona concreta, buscando y determinando el objetivo de forma independiente.

¿Es la IA un descubrimiento reciente?, el propio término «Inteligencia Artificial» se utiliza en relación con el software desde los años cincuenta. El problema es que no existe una definición clara. En el siglo pasado, «Inteligencia Artificial» era el nombre que se daba a las capacidades que hoy tiene cualquier smartphone, según informó Euronews.

Las armas «inteligentes» también aparecieron en el siglo pasado. Ya entonces existían, por ejemplo, sistemas de guiado para misiles y proyectiles, que permitían seleccionar y priorizar «independientemente» un objetivo entre varios sin intervención humana. O los sistemas de defensa antiaérea y antimisiles de los buques, que, en caso de falta de tiempo para una decisión por parte de una persona, podían disparar ellos mismos contra lo que consideraban un misil que amenazaba al buque. O, por ejemplo, la conocida «mano muerta», un sistema que puede dar la orden de un ataque nuclear de represalia si considera que las personas que lo controlan ya han muerto.

Pero desde principios de este siglo, el perfeccionamiento de la IA avanza a pasos agigantados, como todos los demás ámbitos de la informática.

Según las Naciones Unidas, el primer caso registrado de un sistema autónomo que mata a una persona sin la participación de un operador ocurrió en la primavera de 2020 en Libia. Entonces, las tropas del Gobierno de Fayez al Sarraj, también conocido como Gobierno Acuerdo Nacional (GAN) utilizaron drones autónomos de fabricación turca contra soldados que apoyaban al mariscal Jalifa Haftar.

Vincent Boulanin, investigador senior del Instituto Nacional de Investigación por la Paz (SIPRI), afirma: «No se trata de una sola tecnología, sino de una característica habilitadora. Es como hablar de electricidad. Del mismo modo que la electricidad tiene aplicaciones completamente diferentes, la IA permite añadir algunas tecnologías de tal manera que las hace potencialmente más eficientes, más baratas, más compactas y más autónomas».

¿Cómo utilizan los militares la IA?

Según el SIPRI, prácticamente no quedan ámbitos de actividad militar en los que no se utilice la IA. Los drones son sólo un ejemplo. Según los analistas, en 2028 el volumen del mercado asociado a la IA en el ámbito militar superará los 13 700 millones de dólares. Al mismo tiempo, por supuesto, los distintos países tienen diferentes niveles de saturación con este tipo de sistemas.

  • El aspecto más conocido son los sistemas autónomos de combate, o drones. Pueden ser vehículos voladores, como el Bayraktar turco, y terrestres, en forma de pequeño tanque o vehículo blindado de transporte de tropas, y marítimos.

Estos aparatos pueden «cazar» de forma autónoma equipos y soldados enemigos en una zona determinada, detectar objetivos de forma autónoma y elegir el más importante de ellos.

  • El uso más «popular» de la IA es el mismo en la vida militar y en la civil: el análisis de enormes bases de datos para sustituir a las personas en actividades a veces tediosas y monótonas. Por ejemplo, cuando hay que examinar un gran número de fotografías aéreas y encontrar un objetivo concreto. Aquí ni siquiera estamos hablando de IA específicamente «militar». Aquí se utilizan los mismos esquemas que, por ejemplo, en los sistemas de reconocimiento facial en la calle.
  • Detección y análisis de posibles amenazas. La IA puede hacer recomendaciones basadas en estos datos mucho más rápido que un humano. Además, la IA, en teoría, está desprovista del «sesgo» inherente a los mandos humanos, y no sufre el efecto de «ojo borroso», especialmente importante en un entorno de combate que cambia rápidamente.
  • La IA es capaz no sólo de evaluar la situación en el campo de batalla, sino también, dentro de ciertos límites, de «predecir el futuro» basándose en la experiencia de las acciones del enemigo.
  • Pruebas y comprobaciones. La IA puede «simular» el funcionamiento de nuevos equipos militares, nuevos dispositivos e incluso nuevos conceptos tácticos, lo que reduce el coste y el tiempo necesarios para organizar pruebas reales.
  • ¿Es peligroso utilizar la IA en la guerra?
  • Según Vincent Bulanen, investigador principal del Instituto de Investigación para la Paz de Estocolmo, existen tres niveles de riesgo asociados a la IA y su uso en asuntos militares.
  • El primer nivel es tecnológico. La IA está diseñada de tal manera que ni siquiera los propios desarrolladores pueden trazar siempre conexiones lógicas y entender por qué el robot «tomó» tal o cual decisión. Es lo que se denomina el «problema de la caja negra». Por lo tanto, ni los civiles ni los militares pueden, en sentido estricto, confiar plenamente en las decisiones de la IA. Y por ello, siempre existe al menos un riesgo teórico de que el robot realice alguna acción que no se esperaba de él.
  • Esto puede evitarse con un desarrollo más cuidadoso de los algoritmos. Existen algoritmos completamente «transparentes», pero no siempre son aplicables.
  • El segundo nivel es cómo la IA puede cambiar la forma en que organizamos las guerras y los conflictos. ¿Podría resultar más fácil para los humanos dar órdenes de matar si consideran que no hay peligro de muerte, dado que en el campo de batalla sólo hay robots, o la mayoría de ellos?
  • Esto plantea problemas humanitarios a gran escala. Los civiles estarán en la línea de fuego. En primer lugar, el problema de distinguir a un civil de un militante sigue siendo muy grande. En segundo lugar, el riesgo de catástrofes humanitarias aumentará porque aumentará el riesgo de nuevos conflictos. Después de todo, iniciar una «guerra de robots» en términos morales puede ser mucho más fácil.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *