banner
Hogar / Noticias / A medida que los militares adoptan la IA, el entusiasmo se convierte en un arma
Noticias

A medida que los militares adoptan la IA, el entusiasmo se convierte en un arma

May 24, 2023May 24, 2023

El entusiasmo por la inteligencia artificial generativa ha alcanzado un punto álgido desde el lanzamiento de ChatGPT y motores de imágenes como MidJourney el año pasado. Sin embargo, tanto la euforia como la ansiedad por las aplicaciones de la nueva tecnología en el presente conducen pronto a proyecciones existenciales más amplias sobre el futuro. Con la excepción de la “singularidad” y de que la IA reemplace directamente a la humanidad, ningún resultado provoca tanta ansiedad como el efecto que la IA podría tener en la guerra. ¿Podrían los armamentos autónomos y los robots estratégicos oprimir a los civiles, desafiar a los operadores humanos o incluso desencadenar la Tercera Guerra Mundial?

Los líderes del mundo están haciendo una demostración de acción. Sesenta estados se reunieron en febrero para definir objetivos para el “uso responsable de la IA” por parte de los militares. El Departamento de Estado siguió con una declaración política de los principios de Estados Unidos, que incluyen que los oficiales superiores permanezcan involucrados en el diseño y operación de todas las armas autónomas, diseñándolas para "usos explícitos y bien definidos", manteniendo una cuidadosa vigilancia de todas las características de seguridad. durante toda la vida útil de las armas, y procurando evitar sesgos en su uso. Human Rights Watch señaló, sin embargo, que ninguno de estos objetivos es todavía jurídicamente vinculante ni frena el desarrollo de sistemas sofisticados que sus operadores no comprenden del todo.

A pesar de su novedad, estos avances recientes son simplemente los últimos pasos en la automatización de la violencia estatal que dio su primer gran salto con la formación de ejércitos permanentes en Europa en el siglo XVIII. Aunque la ametralladora, el tanque y el avión de combate son símbolos más familiares de este proceso, entrenar a la infantería para eliminar las emociones humanas individuales y aumentar su velocidad y confiabilidad para los comandantes dio a esos ejércitos su primera gran ventaja sobre rivales no preparados.

Reciba su dosis de las mejores historias de JSTOR Daily en su bandeja de entrada todos los jueves.

Política de privacidad Contáctenos Puede cancelar su suscripción en cualquier momento haciendo clic en el enlace proporcionado en cualquier mensaje de marketing.

D

Desde entonces, los estados han temido quedarse atrás en cualquier ventaja de la automatización, razón por la cual hay un discurso paralelo en los medios de comunicación que incita a los EE. UU. a adoptar la IA militar más rápidamente. Las características impresionantes sobre las formas en que la IA generativa hace que el análisis de datos de nivel secreto sean mucho más eficientes van al lado de severas advertencias de que cualquier restricción dará una ventaja al ejército chino. El New York Times ofrece espacio de opinión gratuito a los contratistas militares de IA. Incluso meteduras de pata que parecen accidentales, como el coronel que afirmó que un dron con IA mató a su operador en un ejercicio virtual para lograr su objetivo o el general que dijo que el ejército estadounidense trata las armas de IA de forma más ética debido a sus “valores judeocristianos”. ”(es decir, a diferencia de China) refuerzan el mensaje al mundo de que el desarrollo de la IA militar avanza a toda máquina.

Las aplicaciones de la IA, particularmente en el análisis de inteligencia, son todavía muy hipotéticas. En la actualidad, parece que el revuelo en sí es un arma para advertir a los pretendientes a la supremacía geopolítica. Pero, ¿irían realmente los comandantes militares tan lejos como para intentar automatizar la toma de decisiones en tiempos de guerra?

Tiene sentido que los oficiales militares reales a menudo pidan más precaución que los contratistas de la industria de guerra y los medios de comunicación adyacentes a los think tanks. Tres oficiales estadounidenses van directo al grano en un artículo de PRISM de 2018, proponiendo que los sistemas de estrategia automatizados chinos y estadounidenses que funcionen en 2024 podrían escalar un conflicto a un “intercambio nuclear limitado” en solo dos horas.

En su escenario, la crisis comienza con una colisión accidental entre un pesquero vietnamita y un barco chino en el Mar de China Meridional. Este evento desencadena una serie de reacciones en cadena aparentemente no relacionadas en el ciberespacio, incluida la caída de los índices bursátiles y el aumento de comentarios desfavorables sobre cualquiera de las partes en las redes sociales. Estas indicaciones activan sistemas de alerta de inteligencia artificial sobre ataques de Internet a la infraestructura de TI en ambos lados, lo que posteriormente desencadena acciones militares reales. Aunque en su escenario China ataca primero, los autores consideran responsable la interacción de ambas partes del posible asesinato de millones de personas.

Este escenario pone de relieve las frustrantes incógnitas de la última generación de IA. La más importante es la naturaleza de las redes neuronales que impulsan la tecnología. Esencialmente, la IA generativa “se enseña a sí misma” a escribir, pintar, jugar videojuegos, etc., iterando su tarea millones de veces y asignando tasas de éxito o resultados de probabilidad, perfeccionando cuidadosamente su producción para producir un resultado que sus programadores consideren óptimo. Pero, por su propia naturaleza, es incapaz de proporcionar una explicación completa del proceso de “toma de decisiones” que condujo a ese resultado, porque la maquinaria algorítmica en realidad no tomó ninguna decisión.

Además, los sistemas de IA son tan capaces como los datos a los que están vinculados, lo que redobla las preocupaciones sobre la confiabilidad y la ética de la recopilación masiva de datos que se lleva a cabo en todos los campos de la vida actual. Lo más importante es que, al presentar cada vez más rápidamente el análisis de datos a los usuarios humanos, la IA reduce el tiempo necesario para que los humanos tomen una decisión informada, incluso cuando tienen el “control”.

Los resultados negativos de estas fallas acumulativas en la IA han sido evidentes en otras aplicaciones desde hace algún tiempo, aunque nuestra sociedad ha tomado medidas para normalizarlas. Los algoritmos de negociación de valores han provocado "caídas repentinas" al amplificar datos erróneos y suposiciones deficientes de los operadores. Los conductores humanos obedecen ciegamente a sus asistentes de mapas de inteligencia artificial, lo que provoca accidentes todos los días, y la tecnología para vehículos totalmente autónomos parece seriamente estancada. El software de reconocimiento facial en la seguridad pública continúa extendiéndose, a pesar de serios sesgos.

El problema de esta tecnología, sostienen los autores, es que “los sistemas estratégicos de IA pueden reducir la fricción de la guerra al tiempo que aumentan la niebla”. En última instancia, las capacidades de la IA no importarán tanto como la forma en que los humanos interactúan con ella: ¿producirá una fe ciega o un escepticismo saludable en sus operadores?

Si el revuelo actual sobre la IA militar pretende en parte enviar un mensaje a los rivales geopolíticos de Estados Unidos, debería ser instructivo analizar las actividades y afirmaciones de esos rivales. En 2019, Elena Kania resumió la información disponible sobre la estrategia militar de China para la IA, y allí también encontró mucha publicidad.

El Ejército Popular de Liberación busca integrar la IA en todas las ramas de sus operaciones como parte de una estrategia más amplia de lo que llama "inteligenciación". Pide la creación de un "sistema de sistemas que consista no sólo en armas inteligentes sino que... implique la integración hombre-máquina con inteligencia (artificial) en una posición 'lider' o dominante".

Los objetivos del EPL reflejan los temores de la declaración del Departamento de Estado de febrero: técnicas de aprendizaje automático que pueden funcionar con “computación limitada”, IA para trabajo político y operaciones psicológicas, mayor autonomía de los sistemas “no tripulados” y manipulación de datos contra la IA. Kania cita una impresionante lista de iniciativas estratégicas en el ejército, la marina y la fuerza aérea, así como miles de millones de dólares invertidos en proyectos industriales de “fusión” privados y militares/privados. Y, sin embargo, las armas reales en uso (en 2019) no eran más que aviones teledirigidos, barcos y robots.

El análisis de Kania sobre las “debilidades” de la IA de China es más revelador, en la medida en que podría aplicarse a las dificultades que enfrenta cualquier gran establecimiento militar, en particular Estados Unidos. Las estructuras burocráticas existentes amenazadas con ser reemplazadas obstaculizarán la adopción por parte del EPL de tecnología radicalmente nueva. El EPL enfrenta desafíos para reclutar o capacitar científicos informáticos talentosos. Ha avanzado poco hacia la integración de muchos tipos diferentes de datos militares con la computación en la nube para que la IA los utilice. Invertir tanto capital en el desarrollo industrial de una vez conducirá al despilfarro y la corrupción.

Mientras Kania escribe para el grupo de expertos demócrata de línea dura Centro para una Nueva Seguridad Estadounidense, concluye su informe con puntos de política destinados a enfrentar la amenaza que describe su informe: reinversión en educación STEM estadounidense y mayor vigilancia estatal de seguridad de los vínculos industriales con empresas chinas. . En particular, no sopesa la posibilidad de una destrucción mutua asegurada asistida por IA. Esto plantea un último imponderable. ¿Qué es más peligroso para el futuro de la humanidad: una IA militar que funciona con perfecta eficiencia o una que está plagada de errores y es manejada por un cuerpo de oficiales resentido?

¡Apoye a JSTOR diariamente! Únase a nuestro nuevo programa de membresía en Patreon hoy.

JSTOR es una biblioteca digital para académicos, investigadores y estudiantes. Los lectores de JSTOR Daily pueden acceder a la investigación original detrás de nuestros artículos de forma gratuita en JSTOR.

Reciba su dosis de las mejores historias de JSTOR Daily en su bandeja de entrada todos los jueves.

Política de privacidad Contáctenos Puede cancelar su suscripción en cualquier momento haciendo clic en el enlace proporcionado en cualquier mensaje de marketing.

D