Inteligencia artificial y genocidio real
Por Silvia Ribeiro*
Un reportaje de investigación de la revista independiente +972 Magazine y el portal Local Call reveló que Israel está usando un programa de inteligencia artificial (IA) llamado Lavender para ampliar el genocidio que está cometiendo en Palestina. El programa analiza datos y selecciona objetivos humanos a eliminar. El reportaje se basó en parte en las declaraciones de seis militares de inteligencia israelí que han participado en el ataque a Gaza desde octubre del año pasado
Yuval Abraham, periodista de +972 explica en el reportaje publicado el 6 de abril de 2024, que Israel ya había experimentado con el uso bélico de la inteligencia artificial en una serie de ataques contra Palestina en 2021, con el programa The Gospel (El Evangelio), sobre el cual esa misma revista informó en otro reportaje en diciembre 2023. Israel se ufanaba entonces de la “efectividad” de ese programa, luego de usarlo para elegir objetivos en los ataques que realizó contra Palestina durante 11 días en 2021 que resultaron en más de mil desplazados y cientos de muertes. Afirmó en ese año que esa fue la primer guerra en la que la inteligencia artificial fue un componente clave para multiplicar la potencia del ataque.
Ahora se agrega el programa de inteligencia artificial Lavender. Una diferencia importante entre estos, es que The Gospel se diseñó para identificar infraestructura, edificios, viviendas donde según los parámetros definidos por el Ejército israelí operarían militantes palestinos. Lavender en cambio selecciona a personas como objetivos a bombardear, que incorpora a una lista negra con diferentes categorías, desde supuestos líderes a militantes de menor rango.
Según informan +972 y Local Call, el uso de la inteligencia artificial ha multiplicado exponencialmente las víctimas, sobre todo en los primeros meses de la guerra que Israel comenzó luego del ataque de Hamas en octubre 2023, un genocidio que ha ocasionado decenas de miles de muertes civiles, mujeres y niños. Esto en parte por el diseño del programa Lavender, que identificó más de 37.000 “objetivos” palestinos humanos siguiendo los algoritmos que lo componen. En estos, el ejército amplió los criterios de metas potenciales humanas que podían identificarse con inteligencia artificial y multiplicó los límites “aceptables” de daños colaterales a la población civil. Según afirma el ejército israelí, Lavender tendría un porcentaje de efectividad de 90 por ciento, (lo cual es improbable) pero de cualquier modo significa que para ellos un 10 por ciento de “daño humano colateral” es aceptable. No obstante, es aún más grave porque el ejército prácticamente tampoco analiza los objetivos que le arroja el programa, sino que según la coyuntura de ataques diarios (por ejemplo si ha habido “pocos” en un período o en área marcada como prioritaria a destruir por otro programa de AI) la orden de ataque una vez detectado el objetivo puede ser casi automática, mediando apenas segundos entre recibir la información del objetivo y desatar el bombardeo.
Esa automatización aumentó después de las primeras dos semanas del ataque contra Gaza, luego de que supuestamente el ejército de Israel hizo una comprobación manual aleatoria de la precisión del programa Lavender y concluyó que el 90 por ciento eran objetivos militares “apropiados”. “A partir de ese momento, tal y como apuntan las fuentes, si Lavenderdecidía que un individuo era militante de Hamas, les pedían básicamente que lo consideraran como una orden, sin ningún requisito para comprobar de manera independiente por qué la máquina había hecho esa elección, ni para examinar los datos de inteligencia en los que se basaba.” (Yuval Abraham, reportaje +972)
El nivel de sesgos, parcialidades discriminatorias y errores que conllevan los sistemas de inteligencia artificial es alto en general y con efectos graves en cualquiera de sus aplicaciones, pero en este caso además son extraordinariamente crueles y en alto porcentaje letales.
Al principio, narra el comandante que +972 identifica como uno de los principales impulsores de estos programas, habría que entrenar manualmente a los sistemas de AI para reconocer las características buscadas, pero luego los sistemas “aprenden” y los reconocen automáticamente.
Un sistema automatizado complementario especialmente perverso es el llamado “Dónde está Papá”: informa cuando un militante marcado como objetivo se encuentra en su vivienda familiar. Según declara el Ejército israelí en el reportaje, es “más fácil y más barato” atacar a “los objetivos” en sus viviendas, lo cual ha significado el asesinato de familias enteras.
El ejército llama bombas “inteligentes” a las que tienen una gran potencial destructivo específico, por ejemplo derribar un determinado edificio completo, también guiadas por sistemas informáticos. Pero usa lo que llama “bombas tontas” cuando ataca objetivos seleccionados por inteligencia artificial en zonas de vivienda, cuando son etiquetados como militantes de bajo rango. “No quieres malgastar bombas caras en gente sin importancia; le sale muy caro al país y escasean [esas bombas]”, señaló C., uno de los oficiales de inteligencia que declararon para el reportaje.
La información que usan esos programas bélicos de IA se basa en una diversidad de fuentes: información de satélites, drones, la nutrida red de cámaras de vigilancia que ya se había impuesto en Gaza o dirigidas hacia la franja y otras zonas de Palestina, datos que también se cruzan con otros extraídos de redes sociales, de teléfonos móviles e información generada en campo de batalla.
Además de esa variedad de fuentes que alimentan los sistemas de AI, esos sistemas usan imágenes de Google de varias formas, incluso progragmas de reconocimiento facial. Es conocido que desde hace años, tanto Google, como Amazon, Microsoft y otras de las mayores gigantes tecnológicas colaboran con el Pentágono y otras instancias militares en proveer servicios para el desarrollo de programas de diversos usos bélicos. Incluso cuando debido a protestas de sus trabajadores algunas han declarado que no colaboran o no continúan con estos programas, siguen manteniendo acuerdos de desarrollo y uso de sus tecnologías y productos de IA con Israel.
De hecho todos esos programas de inteligencia artificial para la guerra y el genocidio serían imposibles de aplicar sin el respaldo de las nubes informáticas de almacenamiento que les proveen empresas como Amazon, Google, Microsoft.
La supuesta efectividad y certidumbre de estos programas de IA es seguramente otra “fake news”, al que todas esas empresas y la maquinaria de guerra que alimentan y con la lucran contribuyen . Pero que el uso de esos programas ha acelerado y ampliado la masacre, es sin duda real.
Silvia Ribeiro
* En desInformémonos. Periodista y activista uruguaya, directora para América Latina del Grupo ETC, con sede en México.
Más artículos de la autora
Comparte este artículo, tus amig@s lo leerán gratis…
Mastodon: @LQSomos@nobigtech.es Telegram: LoQueSomosWeb
Twitter: @LQSomos Facebook: LoQueSomos Instagram: LoQueSomos