Actualidad

INFORME: Así usa Israel un cuestionado sistema de Inteligencia Artificial para cazar a sus objetivos en Gaza

[jp_post_view]
INFORME: Así usa Israel un cuestionado sistema de Inteligencia Artificial para cazar a sus objetivos en Gaza

Los críticos advierten que, en el mejor de los casos, el sistema no está probado y, en el peor, proporciona una justificación tecnológica para la matanza de miles de civiles palestinos.

Redacción | Primer Informe

Tras los brutales ataques perpetrados por militantes liderados por Hamás el 7 de octubre, las fuerzas israelíes han atacado más de 22.000 objetivos dentro de Gaza, una pequeña franja de tierra a lo largo de la costa mediterránea. Desde que se rompió la tregua temporal el 1 de diciembre, la Fuerza Aérea de Israel ha atacado más de 3.500 sitios.

El ejército israelí dice que está utilizando inteligencia artificial para seleccionar muchos de estos objetivos en tiempo real. El ejército afirma que el sistema de Inteligencia Artificial (IA), llamado «el Evangelio», les ha ayudado a identificar rápidamente a los combatientes y equipos enemigos, al tiempo que reduce las bajas civiles.

Pero los críticos advierten que, en el mejor de los casos, el sistema no está probado y, en el peor, proporciona una justificación tecnológica para la matanza de miles de civiles palestinos.

«Parece ser un ataque destinado a la máxima devastación de la Franja de Gaza», dice Lucy Suchman, antropóloga y profesora emérita de la Universidad de Lancaster en Inglaterra, que estudia tecnología militar. Si el sistema de inteligencia artificial realmente funciona como afirma el ejército de Israel, «¿cómo se explica eso?», pregunta.

Otros expertos cuestionan si alguna IA puede asumir un trabajo tan trascendental como apuntar a humanos en el campo de batalla.

«Los algoritmos de IA son notoriamente defectuosos y se observan altas tasas de error en aplicaciones que requieren precisión, exactitud y seguridad», advierte Heidy Khlaaf, directora de ingeniería de AI Assurance en Trail of Bits, una empresa de seguridad tecnológica.

A pesar de estas preocupaciones, la mayoría de los expertos coinciden en que este es el comienzo de una nueva fase en el uso de la IA en la guerra. Los algoritmos pueden examinar montañas de datos de inteligencia mucho más rápido que los analistas humanos, dice Robert Ashley, ex director de la Agencia de Inteligencia de Defensa de Estados Unidos. El uso de la IA para ayudar a seleccionar objetivos tiene el potencial de dar a los comandantes una enorme ventaja.

«Vas a tomar decisiones más rápido que tu oponente, de eso se trata realmente», dice.

Esto es lo que se sabe sobre el Evangelio y lo que significa para el futuro de la guerra.

LEA TAMBIÉN: Así es la cacería israelí a Yahya Sinwar, la persona más buscada en Gaza

Objetivos a un ritmo mayor

Los militares de todo el mundo han estado experimentando con IA durante más de una década, según Anthony King, profesor de estudios de defensa y seguridad en la Universidad de Exeter en Inglaterra.

«La atracción es clara», afirma. La mayoría de los ejércitos modernos están reduciendo su tamaño y necesitan tecnología para ayudar a cerrar la brecha. Los sistemas de inteligencia artificial pueden ayudarlos a buscar enormes cantidades de datos de inteligencia para intentar encontrar al enemigo.

Según publicaciones en el sitio web del ejército israelí, el Evangelio fue desarrollado por la rama de inteligencia de señales de Israel, conocida como Unidad 8200. El sistema es relativamente nuevo: una de las primeras menciones fue un premio a la innovación superior que ganó en 2020.

El Evangelio es en realidad uno de varios programas de inteligencia artificial utilizados por la inteligencia israelí, según Tal Mimran, profesor de la Universidad Hebrea de Jerusalén que ha trabajado para el gobierno israelí en objetivos durante operaciones militares anteriores. Otros sistemas de IA agregan grandes cantidades de datos de inteligencia y los clasifican. El sistema final es el Evangelio, que hace una recomendación dirigida a un analista humano. Esos objetivos podrían ser cualquier cosa, desde combatientes individuales hasta equipos como lanzadores de cohetes o instalaciones como los puestos de mando de Hamás.

«Básicamente, el Evangelio imita lo que solía hacer un grupo de oficiales de inteligencia en el pasado», dice.

Pero el Evangelio es mucho más eficiente. Dice que un grupo de 20 agentes podría producir entre 50 y 100 objetivos en 300 días. En comparación, Mimran dice que cree que el Evangelio y sus sistemas de inteligencia artificial asociados pueden sugerir alrededor de 200 objetivos «en 10 a 12 días», un ritmo que es al menos 50 veces más rápido.

Aunque no se sabe exactamente qué datos utiliza el Evangelio para hacer sus sugerencias, es probable que provengan de una amplia variedad de fuentes diferentes. La lista incluye cosas como mensajes de teléfonos móviles, imágenes satelitales, imágenes de drones e incluso sensores sísmicos, según Blaise Misztal, vicepresidente de políticas del Instituto Judío para la Seguridad Nacional de América, un grupo que facilita la cooperación militar entre Israel y Estados Unidos. .

El grupo de Misztal documentó una de las primeras pruebas del Evangelio, durante un conflicto de 2021 en Gaza entre Israel y los grupos militantes Hamás y la Jihad Islámica. Según informes de prensa y declaraciones del propio ejército, Israel utilizó el Evangelio y otros programas de inteligencia artificial para identificar objetivos probables, como lanzadores de cohetes. El sistema se utilizó para identificar objetivos estáticos y en movimiento a medida que aparecían en el campo de batalla. Según informes de prensa, identificó alrededor de 200 objetivos en el conflicto.

Pero no estuvo exento de problemas. El informe posterior a la acción del grupo de Misztal señaló que, si bien la IA tenía muchos datos de entrenamiento para lo que constituía un objetivo, carecía de datos sobre cosas que los analistas humanos habían decidido que no eran objetivos. El ejército israelí no había recopilado los datos de los objetivos que sus analistas habían descartado y, como resultado, el entrenamiento del sistema había sido sesgado.

«Han pasado dos años desde entonces, así que es algo que, con suerte, han podido rectificar», dice Misztal.

Aunque no se sabe exactamente qué datos utiliza el Evangelio para hacer sus sugerencias, es probable que provengan de una amplia variedad de fuentes diferentes. La lista incluye cosas como mensajes de teléfonos móviles, imágenes satelitales, imágenes de drones e incluso sensores sísmicos, según Blaise Misztal, vicepresidente de políticas del Instituto Judío para la Seguridad Nacional de América, un grupo que facilita la cooperación militar entre Israel y Estados Unidos.

El grupo de Misztal documentó una de las primeras pruebas del Evangelio, durante un conflicto de 2021 en Gaza entre Israel y los grupos militantes Hamás y la Jihad Islámica. Según informes de prensa y declaraciones del propio ejército, Israel utilizó el Evangelio y otros programas de inteligencia artificial para identificar objetivos probables, como lanzadores de cohetes. El sistema se utilizó para identificar objetivos estáticos y en movimiento a medida que aparecían en el campo de batalla. Según informes de prensa, identificó alrededor de 200 objetivos en el conflicto.

Pero no estuvo exento de problemas. El informe posterior a la acción del grupo de Misztal señaló que, si bien la IA tenía muchos datos de entrenamiento para lo que constituía un objetivo, carecía de datos sobre cosas que los analistas humanos habían decidido que no eran objetivos. El ejército israelí no había recopilado los datos de los objetivos que sus analistas habían descartado y, como resultado, el entrenamiento del sistema había sido sesgado.

«Han pasado dos años desde entonces, así que es algo que, con suerte, han podido rectificar», dice Misztal.

LEA TAMBIÉN: Denuncian que las violaciones sexuales son parte de la estrategia de guerra de Hamás

Uso de IA en una escalada histórica

La última operación militar de Israel en Gaza comenzó en respuesta al ataque del 7 de octubre que mató a aproximadamente 1.200 personas, según el gobierno israelí. El ejército dice que está tratando de eliminar la amenaza de Hamás y rescatar a los rehenes. Dice que Hamás ha complicado la lucha utilizando a civiles como escudos humanos y operando en túneles bajo zonas civiles.

Una breve publicación en un blog del ejército israelí del 2 de noviembre expone cómo se está utilizando el Evangelio en el conflicto actual. Según la publicación, la Dirección de Objetivos del ejército está utilizando el Evangelio para producir rápidamente objetivos basados ​​en la última información de inteligencia. El sistema proporciona una recomendación de objetivos para un analista humano que luego decide si la transmite a los soldados en el campo.

«Esto no es sólo un sistema automático», subraya Misztal. «Si cree que encuentra algo que podría ser un objetivo potencial, lo marca para que lo revise un analista de inteligencia».

La publicación afirma que la división de objetivos puede enviar estos objetivos a la fuerza aérea y la marina, y directamente a las fuerzas terrestres a través de una aplicación conocida como «Pillar of Fire», que los comandantes llevan en los teléfonos inteligentes y otros dispositivos proporcionados por el ejército.

King cree que este conflicto puede ser la primera vez que se implementan a gran escala objetivos generados por IA para intentar influir en una operación militar. «Esta última guerra en Gaza va a hacer proliferar este tipo de técnica entre el ejército regular», afirma.

No está claro exactamente cuántos objetivos del Evangelio se han actuado, pero el ejército israelí dice que actualmente está atacando hasta 250 objetivos por día.

Cuestionamientos de críticos

El ejército israelí no respondió directamente a las preguntas de NPR sobre el Evangelio. En la publicación del 2 de noviembre, dijo que el sistema permite al ejército «producir objetivos para ataques precisos contra infraestructuras asociadas con Hamás, mientras causa un gran daño al enemigo y un daño mínimo a aquellos que no están involucrados», según un portavoz anónimo.

Pero los críticos cuestionan si el Evangelio y otros sistemas de inteligencia artificial asociados en realidad están funcionando como afirma el ejército. Khlaaf señala que la inteligencia artificial depende completamente de los datos de entrenamiento para tomar sus decisiones.

«La naturaleza de los sistemas de IA es proporcionar resultados basados ​​en inferencias y correlaciones estadísticas y probabilísticas a partir de datos históricos, y no en ningún tipo de razonamiento, evidencia fáctica o ‘causalidad'», afirma. «Dado el historial de altas tasas de error de los sistemas de IA, la automatización imprecisa y sesgada de objetivos no está lejos de ser una focalización indiscriminada».

Algunas acusaciones sobre el Evangelio van más allá. Un informe de la publicación israelí +972 Magazine y el medio en hebreo Local Call afirma que el sistema se está utilizando para fabricar objetivos para que las fuerzas militares israelíes puedan continuar bombardeando Gaza a un ritmo enorme, castigando a la población palestina en general.

NPR no ha verificado de forma independiente esas afirmaciones y no está claro cuántos objetivos están generando actualmente únicamente la IA. Pero ha habido un aumento sustancial de los ataques, según las propias cifras del ejército israelí. En el conflicto de 2021, Israel dijo que atacó 1.500 objetivos en Gaza, aproximadamente 200 de los cuales procedían del Evangelio. Desde el 7 de octubre, el ejército dice que ha atacado más de 22.000 objetivos dentro de Gaza, una tasa diaria de más del doble que durante el conflicto de 2021.

El número de víctimas entre los civiles palestinos ha sido enorme. Hasta ahora han muerto más de 18.000 palestinos, la mayoría de los cuales son mujeres y niños, según el Ministerio de Salud de Gaza. Uno de cada tres edificios en Gaza ha resultado dañado o destruido, según un análisis independiente realizado por Corey Scher del Centro de Graduados CUNY de Nueva York y Jamon Van Den Hoek de la Universidad Estatal de Oregón.

El enorme volumen de objetivos probablemente también esté ejerciendo presión sobre los humanos a los que se les pide que los revisen, dice Suchman. «Ante este tipo de aceleración, esas revisiones se vuelven cada vez más limitadas en términos de qué tipo de juicio la gente realmente puede ejercer», dice.

Mimran añade que, bajo presión, será más probable que los analistas acepten las recomendaciones de orientación de la IA, independientemente de si son correctas. Los agentes de Target pueden verse tentados a pensar que «la vida será mucho más fácil si fluimos con la máquina y aceptamos sus consejos y recomendaciones», dice. Pero podría crear «un nivel completamente nuevo de problemas» si la máquina identifica erróneamente los objetivos de manera sistemática.

Finalmente, Khlaaf señala que el uso de la IA podría hacer que sea más difícil exigir responsabilidades a los involucrados en el conflicto. Aunque los humanos todavía conservan la culpabilidad legal de los ataques, no está claro quién es el responsable si el sistema de focalización falla. ¿Es el analista quien aceptó la recomendación de la IA? ¿Los programadores que crearon el sistema? ¿Los oficiales de inteligencia que recopilaron los datos del entrenamiento?

«Dada la falta de explicabilidad de las decisiones generadas por los sistemas de IA, y la enorme escala y complejidad de estos modelos, resulta imposible rastrear las decisiones hasta puntos de diseño específicos que puedan responsabilizar a cualquier individuo o ejército», dice.

Una muestra de lo que está por venir

Si bien el uso del Evangelio por parte de Israel para generar un conjunto completo de objetivos puede ser único, la nación no es la única que utiliza la IA para ayudar en el análisis de inteligencia. Estados Unidos está trabajando activamente con muchos tipos diferentes de IA para intentar identificar objetivos en el campo. Un conjunto de herramientas de inteligencia artificial, conocido como Proyecto Maven, se ejecuta a través de la Agencia Nacional de Inteligencia Geoespacial, que recopila cantidades masivas de imágenes satelitales, muchas más de las que un analista humano podría buscar.

Ashley no quiso comentar sobre ninguna herramienta de IA en particular utilizada por la comunidad de inteligencia de EE. UU., pero dice que a menudo estos sistemas unirán múltiples capas de IA. Algunos destacan por encontrar objetos en imágenes, mientras que otros pueden clasificar cosas como transmisiones de radio. Ashley dice que, al igual que el sistema israelí, Estados Unidos tiene analistas y comandantes humanos que toman las decisiones finales sobre qué atacar.

Él cree que otras naciones están trabajando en sistemas similares. «Sabes que los rusos lo están haciendo, sabes que los chinos lo están haciendo», dice.

Ashley considera inevitable la proliferación de la IA para este tipo de trabajo, en parte porque se puede realizar con algoritmos comerciales de visión por computadora disponibles en el mercado. «En lugar de utilizar el algoritmo para «encontrar un artilugio en particular, busco un tanque o un arma antiaérea», dice. «Es tecnología de doble uso».

King cree que estos algoritmos de focalización son un paso intermedio para los sistemas autónomos que eventualmente se desplegarán en el campo de batalla. Es probable que estos sistemas robóticos puedan identificar y matar objetivos sin mucha o ninguna intervención humana. King dice que es probable que en el futuro los combates sean aún más rápidos y mortíferos, pero la naturaleza de la guerra seguirá siendo la misma.

«Equipos de combate humanos reforzados con armas realmente letales para luchar en estos horribles tipos de peleas medievales», dice. «Ahí es donde veo que se dirige la guerra».

Información de NPR.

 

Si quieres recibir en tu celular esta y otras noticias de Venezuela y el mundo descarga Telegram, ingresa al link https://t.me/primerinforme y dale click a +Unirme.

Si te gustó la nota compártela
Más noticias de Gaza o similares.
Últimas Noticias: