• Quiénes somos
  • Contacto
  • Embajadas
  • Oficina PM
  • Directorio
  • Jerusalén
  • Condiciones de servicio
  • Política de Privacidad
viernes, junio 20, 2025
Noticias de Israel
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología
Noticias de Israel

Portada » Zona de guerra » La amenaza de la “IA adversaria” pone en riesgo los sistemas militares de EE. UU.

La amenaza de la “IA adversaria” pone en riesgo los sistemas militares de EE. UU.

El experto en ciberseguridad, Josh Lospinoso, alertó sobre la creciente amenaza de la “IA adversaria” en los sistemas militares.

30 de mayo de 2023
La amenaza de la “IA adversaria” pone en riesgo los sistemas militares

La amenaza de la “IA adversaria” pone en riesgo los sistemas militares

La inteligencia artificial (IA) se ha convertido en una herramienta cada vez más importante en diversos campos, incluyendo la ciberseguridad y las operaciones militares.

Sin embargo, el reconocido experto en ciberseguridad, Josh Lospinoso, ha advertido sobre la creciente amenaza de la llamada «IA adversaria» en los sistemas militares, lo que plantea preocupaciones significativas para la seguridad y la eficacia de las fuerzas armadas.

El envenenamiento de datos, una amenaza latente

Lospinoso hizo hincapié en la importancia de comprender el envenenamiento de datos como una forma de desinformación digital. Si los adversarios logran manipular los datos que las tecnologías basadas en IA procesan, podrían afectar significativamente su funcionamiento.

Aunque aún no se ha observado de manera generalizada, Lospinoso mencionó un caso emblemático ocurrido en 2016, cuando Microsoft lanzó el chatbot de Twitter llamado Tay. Usuarios malintencionados aprovecharon esta oportunidad para inundarlo de lenguaje abusivo y ofensivo, lo que llevó a la generación de contenido incendiario y obligó a su desconexión.

La IA como herramienta de ciberseguridad

El experto señaló que la IA se utiliza en diversos ámbitos de la ciberseguridad, como los filtros de correo electrónico para detectar spam y ataques de phishing. Sin embargo, también resaltó que los hackers ofensivos emplean la IA para intentar derrotar estos sistemas de clasificación, lo que se conoce como «IA adversaria».

Esta situación demuestra la necesidad de fortalecer continuamente las medidas de seguridad para proteger los sistemas militares y evitar intrusiones.

La amenaza de la “IA adversaria” pone en riesgo los sistemas militares
Shield AI está construyendo tecnología de conducción autónoma para sistemas no tripulados a fin de entrenarlos para realizar misiones, como contrarrestar sistemas integrados de defensa aérea, sin el uso de GPS, comunicaciones o pilotos remotos. (Escudo IA)

Vulnerabilidades en los sistemas de software militar

Lospinoso hizo referencia a un preocupante informe de la Oficina de Rendición de Cuentas del Gobierno de 2018, que reveló que la mayoría de los sistemas de armas recientemente desarrollados presentaban vulnerabilidades críticas para la misión.

En este sentido, planteó dos desafíos clave: asegurar adecuadamente los sistemas de armas existentes y abordar la seguridad de los algoritmos de inteligencia artificial que se podrían incorporar.

Advirtió que muchos sistemas militares tienen décadas de antigüedad y han sido actualizados con tecnologías digitales, lo que los convierte en objetivos atractivos para los ciberataques una vez que se ha obtenido acceso.

La carrera precipitada hacia la IA

Lospinoso expresó su preocupación por la posibilidad de una carrera precipitada en el desarrollo y la implementación de productos de IA. Si bien destacó la importancia de no detener la investigación en este campo para no rezagarse frente a competidores como China, advirtió sobre los riesgos de lanzar productos de IA al mercado sin tener en cuenta la seguridad y la responsabilidad necesarias.

Subrayó la necesidad de acelerar el desarrollo de la IA, pero sin descuidar los aspectos fundamentales que garanticen su uso seguro.

El debate sobre el uso de la IA en la toma de decisiones militares

Lospinoso fue enfático al afirmar que los algoritmos de inteligencia artificial y los datos recopilados aún no están preparados para permitir que un sistema de armas letal tome decisiones por sí solo.

Afirmó que estamos lejos de alcanzar ese nivel de desarrollo y que es necesario considerar cuidadosamente los riesgos y las implicaciones éticas antes de adoptar tal enfoque en el ámbito militar.

Conclusiones

La advertencia de Josh Lospinoso destaca la importancia de abordar los desafíos relacionados con la «IA adversaria» y las vulnerabilidades en los sistemas de software militar.

Si bien la IA ofrece oportunidades significativas para mejorar la seguridad y la eficiencia en las operaciones militares, es crucial mantener un enfoque equilibrado que garantice la protección de los sistemas y la toma de decisiones responsable.

El ritmo acelerado de desarrollo de la IA requiere una evaluación constante de los riesgos y la implementación de medidas de seguridad adecuadas para evitar futuras amenazas.

Preguntas frecuentes

¿Qué es la «IA adversaria»?

La «IA adversaria» se refiere al uso de inteligencia artificial por parte de hackers ofensivos para intentar derrotar los sistemas de ciberseguridad basados en IA.

¿Cuáles son las vulnerabilidades en los sistemas de software militar?

Según el informe de la Oficina de Rendición de Cuentas del Gobierno de 2018, la mayoría de los sistemas de armas recientemente desarrollados presentan vulnerabilidades críticas para la misión, lo que representa un riesgo para la seguridad militar.

¿Qué precauciones se deben tomar al desarrollar productos de IA?

Es crucial considerar la seguridad y la responsabilidad al desarrollar y lanzar productos de IA al mercado. Una carrera precipitada en el desarrollo de IA sin garantizar estos aspectos puede tener consecuencias negativas.

¿Cuál es el debate sobre el uso de la IA en la toma de decisiones militares?

Aunque la IA tiene potencial para mejorar la toma de decisiones militares, los expertos señalan que los algoritmos y los datos actuales aún no están listos para permitir que los sistemas de armas letales tomen decisiones autónomas.

¿Cuál es la importancia de abordar los desafíos relacionados con la «IA adversaria»?

Los desafíos relacionados con la «IA adversaria» y las vulnerabilidades en los sistemas de software militar deben abordarse para garantizar la seguridad y la eficacia de las operaciones militares y proteger los sistemas contra futuras amenazas.

© 2017–2025
No Result
View All Result
  • Inicio
  • FDI
  • Gaza
  • Terrorismo
  • Mundo
  • Zona de guerra
  • Siria
  • Irán
  • Antisemitismo
  • Tecnología
  • Arqueología

© 2019 - 2025 Todos los derechos reservados.