WASHINGTON (AFP) – Intel, Amazon y Microsoft se encuentran entre las principales empresas de tecnología que están poniendo en riesgo al mundo con el desarrollo de robots asesinos, según un informe en el que los principales actores de la industria fueron encuestados acerca de su posición sobre las mortales armas autónomas.
Pax, una ONG holandesa, clasificó a 50 empresas según tres criterios: si están desarrollando tecnologías que puedan ser relevantes para la Inteligencia Artificial (IA) letal, si están trabajando en proyectos militares relevantes, y si se han comprometido a abstenerse de participar en el futuro.
“¿Por qué compañías como Microsoft y Amazon no niegan que están desarrollando actualmente estas armas tan controvertidas, que podrían decidir matar a personas sin una participación humana directa?”.
El uso de la inteligencia artificial, que permite a los sistemas de armamento elegir y atacar sus propios objetivos, ha provocado un debate ético en los últimos años, con críticas que advierten que esto comprometería la seguridad internacional y marcaría la tercera revolución en la guerra post-pólvora y bomba atómica.
El Grupo de Expertos Gubernamentales examinó las opciones de política en materia de armas autónomas letales durante la reunión sobre la Convención de las Naciones Unidas sobre ciertas armas convencionales celebrada en Ginebra el miércoles.
Google, que el año pasado publicó unas directrices que prohíben el uso de la inteligencia artificial en los sistemas de armas, fue una de las siete empresas con “mejores prácticas” que se están analizando en 12 países, así como el Softbank de Japón, más conocido por su robot humanoide, Pepper.
https://youtu.be/oDeQCIkrLvc
Veintidós empresas, entre ellas Amazon y Microsoft, que licitaban por un contrato de 10.000 millones de dólares con el Pentágono para proporcionar infraestructura en nube a las fuerzas armadas de Estados Unidos, estaban en la categoría de “alto riesgo”, y 21 empresas en la categoría de “mediana empresa”.
Otras compañías de “alto riesgo” incluyen Palantir, una compañía apoyada por la CIA a la que se le otorgó un contrato de 800 millones de dólares para desarrollar un sistema de inteligencia artificial “que puede ayudar a los soldados a analizar el campo de batalla en tiempo real”.
“Las armas autónomas se convertirán inevitablemente en armas de destrucción masiva escalables porque si uno no sabe de los acontecimientos, podría lanzar un millón de armas o cien millones de armas”, dijo Stuart Russell, profesor de informática de la Universidad de California, Berkeley, el miércoles a AFP.
“El hecho es que las armas autónomas serán desarrolladas por las corporaciones, y pueden jugar un papel muy importante en la campaña para prevenir la propagación de las armas autónomas”, agregó.
El desarrollo de la inteligencia artificial con fines militares ha provocado debates y protestas en la industria: El año pasado, Google se negó a renovar un contrato con el Pentágono llamado Project Maven, que utilizaba la máquina de aprendizaje para distinguir entre personas y objetos en videos de drones.
También abandonó el programa Joint Enterprise Defense Infrastructure (JEDI), un contrato de computación en nube que Amazon y Microsoft esperan completar.
El informe señala que Microsoft también se opuso al contrato del Ejército de EE.UU. para unos auriculares de realidad aumentada HoloLens, cuyo objetivo es “aumentar el número de muertes” en el campo de batalla.
Cómo podrían verse
Según Russell, “todo lo que actualmente es un arma, la gente está trabajando en versiones independientes, ya sean tanques, cazas o submarinos”.
La Arpía israelí es un dron autónomo existente que “deambula” por una zona determinada y elige dónde atacar.

Más preocupantes aún son las nuevas categorías de armas autónomas que aún no existen, entre las que podrían incluirse mini-drones armados como los que aparecen en el cortometraje “Slaughterbots” de 2017.
“Con ese tipo de armas, se podría enviar un millón de ellas en un contenedor o en un avión de carga, por lo que tienen la capacidad destructiva de una bomba nuclear”, dijo Russell.
Usando la tecnología de reconocimiento facial, los aviones no tripulados podrían “eliminar a un grupo étnico o a un género, o usando información de los medios sociales se podría eliminar a todas las personas con un punto de vista político”.

La Unión Europea publicó en abril unas directrices sobre la forma en que las empresas y los gobiernos deben desarrollar la inteligencia artificial, incluida la necesidad de supervisión humana, de trabajar en pro del bienestar social y medioambiental de forma no discriminatoria y de respetar la privacidad.
Russell argumentó que era esencial dar el siguiente paso en la forma de una prohibición internacional de la Inteligencia Artificial letal, que podría resumirse como “las máquinas que pueden decidir matar humanos no deben ser desarrolladas, desplegadas o utilizadas”.