COLONIA (Alemania) – Los funcionarios de la OTAN están formulando una nueva serie de preguntas a los Estados miembros sobre la inteligencia artificial en las aplicaciones de defensa, en un momento en que la Alianza busca un terreno común antes de elaborar un documento estratégico previsto para este verano.
Esta medida se produce en el marco de un gran esfuerzo por afianzar la ventaja de la OTAN en lo que los funcionarios denominan tecnologías emergentes y disruptivas, o EDT. El armamento autónomo y basado en la inteligencia artificial es un elemento clave de este esfuerzo, cuyo objetivo es garantizar el liderazgo tecnológico a escala mundial.
Se espera que el punto exacto en el que la alianza se sitúa en el espectro entre permitir la tecnología de defensa impulsada por la IA en algunas aplicaciones y rechazarla en otras sea un tema muy debatido en el período previo a la cumbre de la OTAN del 14 de junio.
“Hemos acordado que necesitamos principios de uso responsable, pero también estamos en proceso de delinear tecnologías específicas”, dijo David van Weel, secretario general adjunto de la alianza para los nuevos desafíos de seguridad, en un evento web organizado a principios de este mes por el Ministerio de Defensa de Estonia.
Según él, podrían aplicarse normas diferentes a los distintos sistemas en función del uso que se les dé y del nivel de autonomía de que se trate. Por ejemplo, un algoritmo que analice datos como parte de una operación administrativa en el cuartel general de la OTAN en Bruselas estaría sujeto a un nivel de escrutinio diferente al de un arma autónoma.
Además, se están elaborando normas para que la industria comprenda los requisitos necesarios para que los sistemas se adhieran a una futura política de la OTAN sobre inteligencia artificial. La idea es presentar un menú de principios cuantificables para que las empresas determinen qué pueden cumplir sus productos, dijo van Weel.
Por el momento, los funcionarios de la Alianza están preparando las preguntas que guiarán el próximo debate, añadió.
Éstas van desde las introspecciones básicas sobre si los sistemas basados en la IA entran dentro de los “mandatos legales” de la OTAN, explicó van Weel, hasta si un sistema determinado está libre de prejuicios, es decir, si su toma de decisiones se inclina en una dirección concreta.
La responsabilidad y la transparencia son otras dos palabras de moda que se espera que ocupen un lugar importante en el debate. Los accidentes con vehículos autónomos, por ejemplo, plantearán la cuestión de quién es responsable: los fabricantes o los operadores.
El nivel de visibilidad de cómo los sistemas toman decisiones también será crucial, según van Weel. “¿Puede explicarme, como operador, qué hace su vehículo autónomo y por qué hace determinadas cosas? Y si hace cosas que no esperábamos, ¿podemos apagarlo?”, preguntó.
El esfuerzo de la OTAN por alcanzar una base común en materia de inteligencia artificial se suma a la iniciativa de la Unión Europea de hacer lo mismo, aunque sin considerar las aplicaciones militares. Además, las Naciones Unidas han sido durante mucho tiempo un foro para debatir las implicaciones de la militarización de la IA.
Según Frank Sauer, investigador de la Universidad Bundeswehr de Múnich, algunas de estas organizaciones han reinventado la rueda cada vez.
Los reguladores tienden a centrarse demasiado en cortar en rodajas las distintas definiciones de autonomía y asociarlas a posibles casos de uso, dijo.
“Hay que pensar en esto de una manera agnóstica a la tecnología”, argumentó Sauer, sugiriendo que los funcionarios pongan más énfasis en la mecánica precisa del control humano. “Supongamos que la máquina puede hacer todo lo que quiere: ¿qué papel deben desempeñar los humanos?”.