El Economista - 73 años
Versión digital

sab 07 Sep

BUE 19°C
Cómo funciona la Inteligencia Artificial que utiliza Israel en la Granja de Gaza
Tech

Lavender, Red Wolf y The Gospel: así utiliza Israel la Inteligencia Artificial para enfrentar al terrorismo yihadista

La IA está avanzando en todos lados. Y la guerra no es una excepción.

Julieta Andrade 03 mayo de 2024

Las Fuerzas de Defensa de Israel (FDI) sentaron un nuevo precedente: es la primera vez que en una guerra se emplea la inteligencia artificial para atacar edificaciones y objetivos humanos. Sin embargo, algunas organizaciones y especialistas aseguran que no son tan precisos y que violan múltiples derechos humanos.

 

A pesar de que estos mecanismos fueron desarrollados hace varios años por las FDI, su utilización comenzó a ser más frecuente después del ataque de Hamás el 7 de octubre del 2023, que dejó 1.200 muertos en Israel y terminó con el secuestro de más de 300 personas. 

El comandante del cuerpo blindado de las FDI aseguró que en esta guerra "estamos presenciando algo que no habíamos visto en guerras anteriores: las fuerzas terrestres, incluido el cuerpo blindado, se benefician de la información de inteligencia precisa y en tiempo real que se les transmite directamente". 

Uno de estos programas es Lavender, una base de datos que selecciona objetivos humanos, a los que, luego de su confirmación, se los ataca mediante un comando operativo de las fuerzas militares. 

Este sistema -diseñado por Unidad 8200, un cuerpo de espionaje de las FDI- tiene una tasa de error de menos de un 10% y funciona a partir de los datos obtenidos a través de un sistema de vigilancia masiva en Gaza que llegó a recopilar información de los 2,3 millones de residentes. 

Una vez que el programa identifica las características de los agentes de Hamás y la Yihad Islámica comienza a localizar las mismas características entre la población general y quienes tengan determinadas características incriminatorias se convierten en un posible objetivo de asesinato.

El segundo programa más utilizado es The Gospel, que a partir de algoritmos define en qué edificios se encuentran los grupos terroristas y el almacenamiento de armamento y municiones y, luego de su detección, utilizan bombas inteligentes para destruirlos. 

Aviv Kochavi, exjefe de las Fuerzas de Defensa de Israel, explicó que este sistema produce un mayor grado de eficacia que el de cualquier ser humano: "Para poner esto en perspectiva, en el pasado producíamos cincuenta objetivos en Gaza por año. Ahora esta máquina produce 100 objetivos en un solo día, y el 50% de ellos son atacados". 

La inteligencia artificial también sirvió para mejorar el desarrollo del sistema de defensa Cúpula de Hierro: este programa, que tiene un nivel de eficacia de 90%, realiza la detección de cohetes y misiles de hasta 70 km de distancia, los cuales son lanzados por Hamás desde Gaza o el Hezbollah desde El Líbano. Luego de analizar los datos y calcular la trayectoria, el sistema despliega un misil para poder interceptarlos y contraatacarlos. También en este aspecto, Israel se destaca por el uso de drones y vehículos aéreos no tripulados (UAV) como el Golden Eagle, el cual mediante la IA vigila en tiempo real los territorios ocupados. 

El sistema de defensa Cúpula de Hierro intercepta misiles lanzados desde la Franja de Gaza sobre la ciudad de Tel Aviv.

No obstante, hace unos años Tel Aviv ya había comenzado a utilizar la inteligencia artificial con el programa Red Wolf: un sistema de reconocimiento facial que, a partir de una red de cámaras de circuito cerrado, rastrea a las familias palestinas y automatiza las restricciones de circulación. 

De esta forma Israel logra custodiar la Franja de Gaza y obtener un banco de imágenes con datos privados de miles de palestinos, lo que para muchos especialistas representa una violación al derecho de la igualdad, la libertad de expresión y la no discriminación. 

Acerca de este tema, Ignacio Orlando, director del laboratorio de IA Arionkoder e investigador del CONICET, considera que, tal como lo hizo la industria farmacéutica y la ingeniería nuclear "en algún momento se tendría generar un ente que permita controlar los usos pacíficos de la inteligencia artificial para evitar el daño sobre las vidas humanas".

Según cifras publicadas por la FDI en noviembre, Israel atacó 15.000 objetivos en Gaza durante los primeros 35 días de la guerra.

Estos programas, que provocaron la muerte de más de 35.000 palestinos y la destrucción masiva de la infraestructura local, son avalados tanto por el primer ministro de Israel, Benjamin Netanyahu, como por los jefes militares. 

El cuerpo militar afirma que estos software cuentan con numerosas ventajas como reducir los tiempos de decisión en el campo de batalla y eliminar objetivos de manera efectiva. 

Según numerosos testimonios que recolectó el diario británico The Guardian, muchos oficiales confiesan que les da más confianza los mecanismos estadísticos que "un soldado preocupado" ya que "la máquina define con frialdad los blancos, y eso lo hace más fácil". 

A pesar de que las Fuerzas de Defensa de Israel difundieron un comunicado en el que aseguraban que habían respetado las normas de proporcionalidad del derecho internacional y que las bombas tienen un alto nivel de precisión, los organismos de derechos humanos sostienen que estos sistemas tienen márgenes de error y que aplican un criterio racial y discriminatorio. Además, señalan que antes la decisión final la tenían los altos mandos militares, mientras que ahora se restan el grado de responsabilidad ya que dejan todo en manos de la inteligencia artificial. 

A su vez, la semana pasada Amnistía Internacional presentó el informe "La situación de los derechos humanos en el mundo 2023", una revisión que expone las más de treinta guerras que se extienden por todo el mundo y los peligros de la implementación de la IA. Una de las principales problemáticas es que muchos países permiten que estas herramientas digitales tengan los datos de la gobernanza de la migración y los controles fronterizos. 

Beatriz Martos, responsable de campañas de tecnología y derechos humanos en Amnistía Internacional España, afirma que esto es un problema ya que normaliza el racismo, la discriminación y la división de las zonas vulnerables: "La inteligencia artificial no es racista per se, pero la falta de regulación, transparencia y reparación traslada al mundo digital los sesgos racistas que existen en la sociedad. Esto se puede cambiar con un compromiso exhaustivo de las instituciones internacionales, nacionales y locales".

Seguí leyendo

Enterate primero

Economía + las noticias de Argentina y del mundo en tu correo

Indica tus temas de interés