viernes, noviembre 8

Uso bélico de la Inteligencia Artificial genera alarma por vacío ético y pérdida de control humano

La inteligencia artificial se ha impuesto como una herramienta en las guerras modernas, pero suscita una inmensa inquietud por el riesgo de escalada que implica y sobre todo por la cuestión de hasta qué punto la controlan realmente los seres humanos.

Dos medios israelíes independientes acusaron recientemente al Estado hebreo de haber utilizado la IA para identificar blancos de ataque en Gaza, lo que hizo reaccionar al secretario general de la ONU Antonio Guterres, quien se dijo «profundamente perturbado».

Más allá del programa en cuestión incriminado, Lavender, y de la investigación periodística que las autoridades israelíes refutan, estas son las claves de un desarrollo tecnológico que ha cambiado la forma de hacer la guerra.

Tres usos principales

La IA es especialmente apreciada para la definición de objetivos. El algoritmo trata a gran velocidad una multitud de datos, de los que extrae unos cálculos de probabilidades que en teoría ayudan a decidir los blancos a golpear.

La IA interviene también a nivel táctico, por ejemplo, en el caso del enjambre de drones, una técnica en la que China parece haber avanzado bastante. En el futuro, cada aparato podrá comunicar con los demás e interactuar en función de un objetivo previamente designado.

A nivel estratégico, la IA permite además modelizar campos de batalla, hipótesis de respuesta a un ataque e incluso el empleo o no del arma atómica.

Pensar más rápido

En caso de conflicto de envergadura, la IA propone «estrategias y planes militares que responden en tiempo real a determinadas situaciones», resume Alessandro Accorsi, experto de Crisis Group.

«El tiempo de reacción se reduce significativamente. Lo que un humano hace en una hora te lo hace ella [la IA] en unos segundos».

Así, por ejemplo, el sistema Cúpula de Hierro, que intercepta en Israel los proyectiles aéreos, es capaz gracias a la IA de detectar la llegada de uno, determinar su tipo y su destino y hasta los daños que es susceptible de causar.

A partir de ahí, «el operador (…) dispone de un minuto para decidir si neutraliza o no el cohete», explica Laure de Roucy-Rochegonde, del Instituto Francés de Relaciones Internacionales (IFRI).

El problema, matiza, es que «muy a menudo» quien maneja el sistema es «un joven que está haciendo su servicio militar, que tiene veinte años y no es muy ducho en el derecho de la guerra. Cabe preguntarse hasta qué punto su control es efectivo».

Un gran vacío ético

La IA se está imponiendo en el campo de batalla, pero sin que la humanidad sea necesariamente consciente de todas las consecuencias.

El hombre «toma una decisión que consiste en una recomendación formulada por la máquina, pero sin saber cuáles son los hechos en los que se ha fundamentado la máquina», explica Laure de Roucy-Rochegonde.

«Aunque sea un operador humano el que aprieta el botón, ese desconocimiento o incomprensión, así como el factor de la rapidez, hacen que su responsabilidad en la toma de decisión sea bastante limitada«.

«No sabemos necesariamente lo que [la IA] ha hecho o pensado, ni cómo ha llegado a ese resultado», abunda Ulrike Franke, del European Council on Foreign Relations (ECFR), un centro de reflexión.

Ucrania como laboratorio

Estados Unidos ha venido utilizando algoritmos, por ejemplo, para golpear a los rebeldes hutíes en Yemen, recientemente. Pero «el gran cambio está ocurriendo ahora: Ucrania se ha convertido en un laboratorio del uso militar de la IA«, asevera Alessandro Accorsi.

Dede que Rusia invadió Ucrania en febrero de 2022, ambas partes han «desarrollado soluciones de IA para tareas como la inteligencia geoespacial, operaciones con sistemas sin piloto, entrenamiento militar y ciberguerra», escribe Vitali Goncharuk, del Observatorio de Defensa IA (DAIO) en la Universidad Helmut Schmidt de Hamburgo.

Escalada y riesgo nuclear

La figura de Terminator, ese robot asesino sobre el que el hombre pierde el control está en la mente de todos. Y aunque podría considerarse una mera fantasía cinematográfica, la realidad es que los cálculos fríos de las máquinas ignoran la duda y el instinto de supervivencia, que caracteriza profundamente al homo sapiens.

Investigadores de cuatro institutos y universidades norteamericanas publicaron en enero un estudio, en simulaciones de conflicto, de cinco grandes modelos de lenguaje.

Según las conclusiones, dichos modelos «tienden a desarrollar una dinámica de carrera armamentística, que conduce a conflictos más importantes y en casos contados al despliegue de armas nucleares», aseguran.

Las grandes potencias están preocupadas por no verse superadas por sus rivales, y de momento no parecen querer reglamentar demasiado toda esta tecnología. Los presidentes norteamericano Joe Biden y chino Xi Jinping acordaron en noviembre que sus expertos respectivos examinen la cuestión.

Naciones Unidas lleva 10 años abordando estos dilemas, pero sin grandes resultados.

«Hay debates en cuanto a lo que debe hacerse en la industria de la IA civil», apunta Alessandro Accorsi. «Pero muy pocos en lo que atañe a la industria de Defensa».

Por: Agencia