Alemania advierte: la carrera armamentista de IA ya está en marcha


El mundo está entrando en una nueva era de guerra, con la inteligencia artificial en el centro del escenario. La IA está haciendo que los ejércitos sean más rápidos, inteligentes y eficientes. Pero si no se controla, amenaza con desestabilizar el mundo.

Ya está en marcha una carrera de armamentos de IA. Esa es la advertencia contundente del ministro de Relaciones Exteriores de Alemania, Heiko Maas.

“Estamos justo en el medio. Esa es la realidad con la que tenemos que lidiar”, dijo Maas a DW, hablando en un nuevo documental de DW, “Guerras futuras y cómo prevenirlas”.

Es una realidad en el corazón de la lucha por la supremacía entre las mayores potencias del mundo.

“Esta es una carrera que atraviesa los campos militar y civil”, dijo Amandeep Singh Gill, ex presidente del grupo de expertos gubernamentales de las Naciones Unidas sobre armas autónomas letales. “Esta es una pregunta de varios billones de dólares”.

Grandes poderes se acumulan

Esto es evidente en un informe reciente de la Comisión de Seguridad Nacional de Inteligencia Artificial de los Estados Unidos. Habla de un “nuevo paradigma de guerra” que enfrenta “algoritmos contra algoritmos” e insta a inversiones masivas “para superar continuamente a los adversarios potenciales”.

Y puede verlo en el último plan quinquenal de China, que coloca a la IA en el centro de un implacable aumento en la investigación y el desarrollo, mientras que el Ejército Popular de Liberación se prepara para un futuro de lo que llama “guerra inteligente”.

Como dijo el presidente ruso Vladimir Putin ya en 2017, “quien se convierta en el líder en esta esfera se convertirá en el gobernante del mundo”.

Pero no solo se acumulan grandes poderes.

Mucho más abajo en el orden jerárquico del poder global, esta nueva era es una realidad probada en batalla.

Guerra de cuencas

A fines de 2020, cuando el mundo fue consumido por la pandemia, las tensiones supurantes en el Cáucaso estallaron en una guerra.

Parecía un conflicto regional de libro de texto, con Azerbaiyán y Armenia peleando por la disputada región de Nagorno-Karabaj. Pero para quienes prestaron atención, esto fue un punto de inflexión en la guerra.

“El aspecto realmente importante del conflicto en Nagorno-Karabaj, en mi opinión, fue el uso de estas municiones merodeando, los llamados ‘drones kamikaze’, estos sistemas bastante autónomos”, dijo Ulrike Franke, experta en guerra con drones en el Consejo Europeo de Relaciones Exteriores.

Las ‘municiones merodeando’ entraron en acción en la guerra de Nagorno-Karabaj de 2020
Bombas que merodean en el aire

Los modelos avanzados de municiones merodeadores son capaces de un alto grado de autonomía. Una vez lanzados, vuelan a un área objetivo definida, donde “merodean”, buscando objetivos, típicamente sistemas de defensa aérea.

Una vez que detectan un objetivo, vuelan hacia él y lo destruyen al impactar con una carga útil de explosivos a bordo; de ahí el apodo de “drones kamikaze”.

“También se habían utilizado de alguna manera antes, pero aquí, realmente demostraron su utilidad”, explicó Franke. “Se demostró lo difícil que es luchar contra estos sistemas”.

La investigación del Centro de Estudios Estratégicos e Internacionales mostró que Azerbaiyán tenía una gran ventaja en municiones merodeadores, con más de 200 unidades de cuatro sofisticados diseños israelíes. Armenia tenía un modelo nacional único a su disposición.

Otros militares tomaron nota.

“Desde el conflicto, definitivamente se pudo ver un cierto aumento en el interés en municiones merodeando”, dijo Franke. “Hemos visto más fuerzas armadas en todo el mundo adquiriendo o queriendo adquirir estas municiones merodeando”.

La tecnología de enjambre impulsada por IA pronto llegará al campo de batalla
Enjambres de drones y ‘guerras relámpago’

Este es solo el comienzo. De cara al futuro, las tecnologías impulsadas por la inteligencia artificial, como el enjambre, entrarán en uso militar, lo que permitirá que muchos drones funcionen juntos como un todo letal.

“Se podría eliminar un sistema de defensa aérea, por ejemplo”, dijo Martijn Rasser del Center for a New American Security, un grupo de expertos con sede en Washington, DC.

“Le arrojas tanta masa y tantos números que el sistema se ve abrumado. Esto, por supuesto, tiene muchos beneficios tácticos en un campo de batalla”, dijo a DW. “No es de extrañar, muchos países están muy interesados ​​en perseguir este tipo de capacidades”.

La escala y la velocidad del enjambre abren la posibilidad de enfrentamientos militares tan rápidos y complejos que los humanos no pueden seguirlos, lo que alimenta aún más una dinámica de carrera armamentista.

Como explicó Ulrike Franke: “Algunos actores pueden verse obligados a adoptar un cierto nivel de autonomía, al menos a la defensiva, porque los seres humanos no podrían hacer frente a los ataques autónomos con tanta rapidez”.

Este factor crítico de velocidad podría incluso conducir a guerras que estallaron de la nada, con sistemas autónomos reaccionando entre sí en una espiral de escalada. “En la literatura, las llamamos ‘guerras repentinas'”, dijo Franke, “un conflicto militar accidental que no querías”.

Los expertos advierten que los sistemas impulsados ​​por inteligencia artificial podrían llevar a que estallen ‘guerras repentinas’ más allá del control humano
Un movimiento para ‘detener a los robots asesinos’

Bonnie Docherty ha hecho su misión evitar ese futuro. Profesora de la Facultad de Derecho de Harvard, es arquitecta de la Campaña para detener a los robots asesinos, una alianza de organizaciones no gubernamentales que exigen un tratado global para prohibir las armas autónomas letales.

“La obligación general del tratado debería ser mantener un control humano significativo sobre el uso de la fuerza”, dijo Docherty a DW. “Debería ser un tratado que gobierne todas las armas que operan con autonomía que eligen objetivos y disparan sobre ellos en función de las entradas de los sensores en lugar de las entradas humanas”.

La campaña se ha centrado en las conversaciones en Ginebra bajo el paraguas de la Convención de la ONU sobre Ciertas Armas Convencionales, que busca controlar las armas que se considera que causan un sufrimiento injustificable.

Ha sido lento. El proceso ha dado lugar a un conjunto de “principios rectores”, que incluyen que las armas autónomas estén sujetas a las leyes de derechos humanos y que los seres humanos tienen la responsabilidad última de su uso. Pero estos simplemente forman una base para más discusiones.

Docherty teme que el proceso de Ginebra vinculado al consenso pueda verse frustrado por potencias que no tienen ningún interés en un tratado.

“Rusia ha sido particularmente vehemente en sus objeciones”, dijo Docherty.

Pero no está solo. “Algunos de los otros estados que desarrollan sistemas de armas autónomos como Israel, Estados Unidos, el Reino Unido y otros ciertamente no han apoyado un nuevo tratado”.

¿Es hora de repensarlo?

Docherty está pidiendo un nuevo enfoque si la próxima ronda de conversaciones de Ginebra prevista para finales de este año no avanza. Ella ha propuesto “un proceso independiente, guiado por estados que realmente se toman en serio este tema y están dispuestos a desarrollar estándares sólidos para regular estos sistemas de armas”.

Pero muchos desconfían de esta idea. El ministro de Relaciones Exteriores de Alemania ha sido un firme defensor de la prohibición, pero no apoya la Campaña para detener a los robots asesinos.

“No lo rechazamos en sustancia, solo estamos diciendo que queremos que se incluya a otros”, dijo Heiko Maas a DW. “Poderes militares que están tecnológicamente en condiciones no solo de desarrollar armas autónomas sino también de usarlas”.

Maas está de acuerdo en que un tratado debe ser el objetivo final. “Al igual que logramos hacer con las armas nucleares durante muchas décadas, tenemos que forjar tratados internacionales sobre nuevas tecnologías de armas”, dijo. “Deben dejar en claro que estamos de acuerdo en que algunos desarrollos que son técnicamente posibles no son aceptables y deben prohibirse a nivel mundial”.

¿Qué sigue?

Pero por ahora, no hay consenso. Para Franke, lo mejor que puede esperar el mundo pueden ser las normas sobre cómo se utilizan las tecnologías. “Usted acepta, por ejemplo, usar ciertas capacidades solo de manera defensiva, o solo contra máquinas en lugar de humanos, o solo en ciertos contextos”, dijo.

Incluso esto será un desafío. “Aceptar eso y luego implementarlo es mucho más difícil que algunos de los antiguos acuerdos de control de armas”, dijo.

Y mientras los diplomáticos evitan estos obstáculos, la tecnología avanza.

“El mundo debe interesarse por el hecho de que estamos avanzando hacia una situación con armas cibernéticas o autónomas en la que todos pueden hacer lo que quieran”, dijo Maas. “No queremos eso”.

Para más, mira el documental completo Guerras futuras en Youtube.

.



Source link