La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más importante en diversos campos, incluyendo la ciberseguridad y las operaciones militares.
Sin embargo, el reconocido experto en ciberseguridad, Josh Lospinoso, ha advertido sobre la creciente amenaza de la llamada «IA adversaria» en los sistemas militares, lo que plantea preocupaciones significativas para la seguridad y la eficacia de las fuerzas armadas.
El envenenamiento de datos, una amenaza latente
Lospinoso hizo hincapié en la importancia de comprender el envenenamiento de datos como una forma de desinformación digital. Si los adversarios logran manipular los datos que las tecnologías basadas en IA procesan, podrían afectar significativamente su funcionamiento.
Aunque aún no se ha observado de manera generalizada, Lospinoso mencionó un caso emblemático ocurrido en 2016, cuando Microsoft lanzó el chatbot de Twitter llamado Tay. Usuarios malintencionados aprovecharon esta oportunidad para inundarlo de lenguaje abusivo y ofensivo, lo que llevó a la generación de contenido incendiario y obligó a su desconexión.
La IA como herramienta de ciberseguridad
El experto señaló que la IA se utiliza en diversos ámbitos de la ciberseguridad, como los filtros de correo electrónico para detectar spam y ataques de phishing. Sin embargo, también resaltó que los hackers ofensivos emplean la IA para intentar derrotar estos sistemas de clasificación, lo que se conoce como «IA adversaria».
Esta situación demuestra la necesidad de fortalecer continuamente las medidas de seguridad para proteger los sistemas militares y evitar intrusiones.

Vulnerabilidades en los sistemas de software militar
Lospinoso hizo referencia a un preocupante informe de la Oficina de Rendición de Cuentas del Gobierno de 2018, que reveló que la mayoría de los sistemas de armas recientemente desarrollados presentaban vulnerabilidades críticas para la misión.
En este sentido, planteó dos desafíos clave: asegurar adecuadamente los sistemas de armas existentes y abordar la seguridad de los algoritmos de inteligencia artificial que se podrían incorporar.
Advirtió que muchos sistemas militares tienen décadas de antigüedad y han sido actualizados con tecnologías digitales, lo que los convierte en objetivos atractivos para los ciberataques una vez que se ha obtenido acceso.
La carrera precipitada hacia la IA
Lospinoso expresó su preocupación por la posibilidad de una carrera precipitada en el desarrollo y la implementación de productos de IA. Si bien destacó la importancia de no detener la investigación en este campo para no rezagarse frente a competidores como China, advirtió sobre los riesgos de lanzar productos de IA al mercado sin tener en cuenta la seguridad y la responsabilidad necesarias.
Subrayó la necesidad de acelerar el desarrollo de la IA, pero sin descuidar los aspectos fundamentales que garanticen su uso seguro.
El debate sobre el uso de la IA en la toma de decisiones militares
Lospinoso fue enfático al afirmar que los algoritmos de inteligencia artificial y los datos recopilados aún no están preparados para permitir que un sistema de armas letal tome decisiones por sí solo.
Afirmó que estamos lejos de alcanzar ese nivel de desarrollo y que es necesario considerar cuidadosamente los riesgos y las implicaciones éticas antes de adoptar tal enfoque en el ámbito militar.
Conclusiones
La advertencia de Josh Lospinoso destaca la importancia de abordar los desafíos relacionados con la «IA adversaria» y las vulnerabilidades en los sistemas de software militar.
Si bien la IA ofrece oportunidades significativas para mejorar la seguridad y la eficiencia en las operaciones militares, es crucial mantener un enfoque equilibrado que garantice la protección de los sistemas y la toma de decisiones responsable.
El ritmo acelerado de desarrollo de la IA requiere una evaluación constante de los riesgos y la implementación de medidas de seguridad adecuadas para evitar futuras amenazas.
Preguntas frecuentes
La «IA adversaria» se refiere al uso de inteligencia artificial por parte de hackers ofensivos para intentar derrotar los sistemas de ciberseguridad basados en IA.
Según el informe de la Oficina de Rendición de Cuentas del Gobierno de 2018, la mayoría de los sistemas de armas recientemente desarrollados presentan vulnerabilidades críticas para la misión, lo que representa un riesgo para la seguridad militar.
Es crucial considerar la seguridad y la responsabilidad al desarrollar y lanzar productos de IA al mercado. Una carrera precipitada en el desarrollo de IA sin garantizar estos aspectos puede tener consecuencias negativas.
Aunque la IA tiene potencial para mejorar la toma de decisiones militares, los expertos señalan que los algoritmos y los datos actuales aún no están listos para permitir que los sistemas de armas letales tomen decisiones autónomas.
Los desafíos relacionados con la «IA adversaria» y las vulnerabilidades en los sistemas de software militar deben abordarse para garantizar la seguridad y la eficacia de las operaciones militares y proteger los sistemas contra futuras amenazas.