SOMOSMASS99
Yuval Abraham* / +972 Magazine
Jueves 4 de abril de 2024
El ejército israelí ha marcado a decenas de miles de gazatíes como sospechosos de asesinato, utilizando un sistema de selección de objetivos de IA con poca supervisión humana y una política permisiva para las bajas, revelan.
En 2021, se publicó en inglés un libro titulado «The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World» bajo el seudónimo de «Brigadier General Y.S.» En él, el autor, un hombre que confirmamos que es el actual comandante de la unidad de inteligencia israelí de élite 8200, defiende el diseño de una máquina especial que podría procesar rápidamente cantidades masivas de datos para generar miles de «objetivos» potenciales para ataques militares en el fragor de una guerra. Dicha tecnología, escribe, resolvería lo que describió como un «cuello de botella humano tanto para la localización de los nuevos objetivos como para la toma de decisiones para aprobar los objetivos».
Resulta que tal máquina existe realmente. Una nueva investigación realizada por +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en inteligencia artificial conocido como «Lavender», presentado aquí por primera vez. Según seis oficiales de inteligencia israelíes, que han servido en el ejército durante la actual guerra en la Franja de Gaza y han participado de primera mano en el uso de la IA para generar objetivos de asesinato, Lavender ha desempeñado un papel central en el bombardeo sin precedentes de palestinos, especialmente durante las primeras etapas de la guerra. De hecho, según las fuentes, su influencia en las operaciones de los militares fue tal que esencialmente trataron los resultados de la máquina de IA «como si fuera una decisión humana».
Formalmente, el sistema Lavender está diseñado para marcar a todos los sospechosos de participar en las alas militares de Hamás y la Yihad Islámica en Palestina, incluidos los de bajo rango, como posibles objetivos de los bombardeos. Las fuentes dijeron a +972 y Local Call que, durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender, que registró hasta 37.000 palestinos como presuntos militantes, y sus hogares, para posibles ataques aéreos.
Durante las primeras etapas de la guerra, el ejército dio una amplia aprobación para que los oficiales adoptaran las listas de asesinatos de Lavender, sin necesidad de verificar minuciosamente por qué la máquina tomó esas decisiones o examinar los datos de inteligencia en bruto en los que se basaban. Una fuente declaró que el personal humano a menudo servía solo como un «sello de goma» para las decisiones de la máquina, y agregó que, normalmente, dedicarían personalmente solo unos «20 segundos» a cada objetivo antes de autorizar un bombardeo, solo para asegurarse de que el objetivo marcado con lavanda sea masculino. Esto fue a pesar de saber que el sistema comete lo que se considera «errores» en aproximadamente el 10 por ciento de los casos, y se sabe que ocasionalmente marca a individuos que simplemente tienen una conexión vaga con grupos militantes, o ninguna conexión en absoluto.
Además, el ejército israelí atacó sistemáticamente a las personas atacadas mientras estaban en sus hogares, por lo general de noche, mientras toda su familia estaba presente, y no durante el curso de la actividad militar. Según las fuentes, esto se debió a que, desde el punto de vista de la inteligencia, era más fácil localizar a los individuos en sus casas particulares. Otros sistemas automatizados, incluido uno llamado «¿Dónde está papá?», también revelado aquí por primera vez, se utilizaron específicamente para rastrear a las personas objetivo y llevar a cabo atentados con bombas cuando habían entrado en las residencias de sus familias.
El resultado, como testificaron las fuentes, es que miles de palestinos, la mayoría de ellos mujeres y niños o personas que no participaron en los combates, fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa de IA.
«No estábamos interesados en matar a los operativos [de Hamás] solo cuando estaban en un edificio militar o participaban en una actividad militar», dijo A., un oficial de inteligencia, a +972 y Local Call. «Por el contrario, las FDI los bombardearon en las casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones».
La máquina Lavender se une a otro sistema de IA, «The Gospel», sobre el que se reveló información en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre los dos sistemas está en la definición del objetivo: mientras que El Evangelio marca los edificios y estructuras desde los que el ejército afirma que operan los militantes, Lavender marca a las personas y las pone en una lista de asesinatos.
Además, según las fuentes, a la hora de atacar a presuntos militantes jóvenes marcados por Lavender, el ejército prefirió utilizar únicamente misiles no guiados, comúnmente conocidos como bombas «tontas» (en contraste con las bombas de precisión «inteligentes»), que pueden destruir edificios enteros encima de sus ocupantes y causar bajas significativas. «No quieres desperdiciar bombas caras en personas sin importancia, es muy caro para el país y hay escasez [de esas bombas]», dijo C., uno de los oficiales de inteligencia. Otra fuente dijo que habían autorizado personalmente el bombardeo de «cientos» de casas particulares de presuntos agentes subalternos marcados con Lavender, y que muchos de estos ataques mataron a civiles y familias enteras como «daños colaterales».
En una medida sin precedentes, según dos de las fuentes, el ejército también decidió durante las primeras semanas de la guerra que, por cada agente subalterno de Hamás que Lavender marcaba, era permisible matar hasta 15 o 20 civiles; En el pasado, los militares no autorizaron ningún «daño colateral» durante los asesinatos de militantes de bajo rango. Las fuentes agregaron que, en el caso de que el objetivo fuera un alto funcionario de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones el asesinato de más de 100 civiles en el asesinato de un solo comandante.
La siguiente investigación está organizada de acuerdo con las seis etapas cronológicas de la producción altamente automatizada de objetivos del ejército israelí en las primeras semanas de la guerra de Gaza. En primer lugar, explicamos la propia máquina Lavender, que marcó a decenas de miles de palestinos utilizando la IA. En segundo lugar, revelamos el sistema «¿Dónde está papá?», que rastreaba estos objetivos y señalaba al ejército cuando entraban en sus casas familiares. En tercer lugar, describimos cómo se eligieron bombas «tontas» para atacar estas casas.
En cuarto lugar, explicamos cómo el ejército redujo el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, observamos cómo los programas informáticos automatizados calcularon de forma inexacta la cantidad de no combatientes en cada hogar. Y sexto, mostramos cómo en varias ocasiones, cuando una casa fue atacada, generalmente por la noche, el objetivo individual a veces no estaba dentro en absoluto, porque los oficiales militares no verificaron la información en tiempo real.
PASO 1: GENERACIÓN DE OBJETIVOS
«Una vez que te vuelves automático, la generación de objetivos se vuelve loca»
En el ejército israelí, el término «objetivo humano» se refería en el pasado a un agente militar de alto rango que, de acuerdo con las reglas del Departamento de Derecho Internacional del ejército, puede ser asesinado en su casa privada incluso si hay civiles alrededor. Fuentes de inteligencia dijeron a +972 y Local Call que durante las guerras anteriores de Israel, dado que esta era una forma «especialmente brutal» de matar a alguien, a menudo matando a una familia entera junto al objetivo, tales objetivos humanos se marcaban con mucho cuidado y solo los altos mandos militares eran bombardeados en sus casas, para mantener el principio de proporcionalidad según el derecho internacional.
Pero después del 7 de octubre, cuando los militantes liderados por Hamás lanzaron un ataque mortal contra las comunidades del sur de Israel, matando a unas 1.200 personas y secuestrando a 240, el ejército, dijeron las fuentes, adoptó un enfoque dramáticamente diferente. En el marco de la «Operación Espadas de Hierro», el ejército decidió designar a todos los activistas del brazo militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar. Y eso lo cambió todo.
La nueva política también planteó un problema técnico para la inteligencia israelí. En guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso de «incriminación»: cotejar las pruebas de que la persona era realmente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, su información de contacto y, finalmente, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos contaba sólo con unas pocas docenas de agentes de alto rango, el personal de inteligencia podía encargarse individualmente del trabajo que implicaba incriminarlos y localizarlos.
Sin embargo, una vez que la lista se amplió para incluir a decenas de miles de agentes de menor rango, el ejército israelí se dio cuenta de que tenía que confiar en el software automatizado y la inteligencia artificial. El resultado, testifican las fuentes, fue que el papel del personal humano en la incriminación de los palestinos como agentes militares fue dejado de lado, y la IA hizo la mayor parte del trabajo en su lugar. Según cuatro de las fuentes que hablaron con +972 y Local Call, Lavender -que se desarrolló para crear objetivos humanos en la guerra actual- ha marcado a unos 37.000 palestinos como sospechosos de ser «militantes de Hamás», la mayoría de ellos jóvenes, para asesinarlos (el portavoz de las FDI negó la existencia de tal lista de asesinatos en una declaración a +972 y Local Call).
«No sabíamos quiénes eran los agentes subalternos, porque Israel no los rastreaba rutinariamente [antes de la guerra]», explicó el oficial superior B. a +972 y Local Call, iluminando la razón detrás del desarrollo de esta máquina de objetivos en particular para la guerra actual. «Querían permitirnos atacar [a los agentes subalternos] automáticamente. Ese es el Santo Grial. Una vez que se vuelve automático, la generación de objetivos se vuelve loca».
Las fuentes dijeron que la aprobación para adoptar automáticamente las listas de asesinatos de Lavender, que anteriormente se habían utilizado solo como una herramienta auxiliar, se otorgó aproximadamente dos semanas después de la guerra, después de que el personal de inteligencia verificara «manualmente» la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra encontró que los resultados de Lavender habían alcanzado una precisión del 90 por ciento en la identificación de la afiliación de un individuo con Hamás, el ejército autorizó el uso generalizado del sistema. A partir de ese momento, las fuentes dijeron que, si Lavender decidía que un individuo era un militante de Hamás, esencialmente se les pedía que lo trataran como una orden, sin el requisito de verificar de forma independiente por qué la máquina tomó esa decisión o examinar los datos de inteligencia en bruto en los que se basa.
«A las 5 a.m., [la fuerza aérea] venía y bombardeaba todas las casas que habíamos marcado», dijo B. «Sacamos a miles de personas. No los revisamos uno por uno, pusimos todo en sistemas automatizados, y tan pronto como uno de [los individuos marcados] estaba en casa, inmediatamente se convirtió en un objetivo. Lo bombardeamos a él y a su casa».
«Fue muy sorprendente para mí que nos pidieran bombardear una casa para matar a un soldado de tierra, cuya importancia en los combates era tan baja», dijo una fuente sobre el uso de la IA para marcar a presuntos militantes de bajo rango. «Apodé a esos objetivos ‘objetivos basura’. Aun así, me parecieron más éticos que los objetivos que bombardeamos solo para ‘disuadir’: rascacielos que son evacuados y derribados solo para causar destrucción».
Los resultados mortales de esta relajación de las restricciones en la primera etapa de la guerra fueron asombrosos. Según datos del Ministerio de Salud palestino en Gaza, en el que el ejército israelí ha dependido casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15.000 palestinos, casi la mitad del número de muertos hasta ahora, en las primeras seis semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.
«Cuanta más información y variedad, mejor»
El software Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de habitantes de la Franja de Gaza a través de un sistema de vigilancia masiva, luego evalúa y clasifica la probabilidad de que cada persona en particular esté activa en el ala militar de Hamás o en la Yihad Islámica en Palestina. Según las fuentes, la máquina otorga a casi todas las personas en Gaza una calificación de 1 a 100, lo que expresa la probabilidad de que sean militantes.
Lavender aprende a identificar las características de los activistas conocidos de Hamás y de la Yihad Islámica en Palestina, cuya información fue introducida a la máquina como datos de entrenamiento, y luego a localizar esas mismas características -también llamadas «características»- entre la población general, explicaron las fuentes. Un individuo que tenga varias características incriminatorias diferentes alcanzará una calificación alta y, por lo tanto, se convertirá automáticamente en un objetivo potencial para el asesinato.
En «El Equipo Hombre-Máquina», el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin hacer referencia a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes en 8200 confirmaron que el comandante es el autor, ya que reportado también por Haaretz.) Al describir al personal humano como un «cuello de botella» que limita la capacidad del ejército durante una operación militar, el comandante se lamenta: «Nosotros [los humanos] no podemos procesar tanta información. No importa a cuánta gente se le haya encomendado la tarea de producir objetivos durante la guerra, todavía no se pueden producir suficientes objetivos por día».
La solución a este problema, dice, es la inteligencia artificial. El libro ofrece una breve guía para construir una «máquina objetivo», similar en descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. En esta guía se incluyen varios ejemplos de los «cientos y miles» de características que pueden aumentar la calificación de un individuo, como estar en un grupo de Whatsapp con un militante conocido, cambiar de teléfono celular cada pocos meses y cambiar de dirección con frecuencia.
«Cuanta más información y más variedad, mejor», escribe el comandante. «Información visual, información celular, conexiones de redes sociales, información sobre el campo de batalla, contactos telefónicos, fotos». Si bien los humanos seleccionan estas características al principio, continúa el comandante, con el tiempo la máquina llegará a identificar las características por sí misma. Esto, dice, puede permitir a los militares crear «decenas de miles de objetivos», mientras que la decisión real de atacarlos o no seguirá siendo humana.
El libro no es la única vez que un alto comandante israelí insinuó la existencia de máquinas objetivo humanas como Lavender. +972 y Local Call han obtenido imágenes de una conferencia privada impartida por el comandante del centro secreto de Ciencia de Datos e IA de la Unidad 8200, el «Coronel Yoav», en la semana de la IA de la Universidad de Tel Aviv en 2023, de la que se informó en su momento en los medios de comunicación israelíes.
En la conferencia, el comandante habla sobre una nueva y sofisticada máquina de objetivos utilizada por el ejército israelí que detecta a «personas peligrosas» basándose en su semejanza con las listas existentes de militantes conocidos en las que fue entrenado. «Usando el sistema, logramos identificar a los comandantes de los escuadrones de misiles de Hamás», dijo el «coronel Yoav» en la conferencia, refiriéndose a la operación militar de Israel en mayo de 2021 en Gaza, cuando la máquina se utilizó por primera vez.
Las diapositivas de la presentación de la conferencia, también obtenidas por +972 y Local Call, contienen ilustraciones de cómo funciona la máquina: se le suministran datos sobre los operativos de Hamás existentes, aprende a notar sus características y luego califica a otros palestinos en función de cuán similares son a los militantes.
«Clasificamos los resultados y determinamos el umbral [en el que atacar un objetivo]», dijo el «coronel Yoav» en la conferencia, enfatizando que «eventualmente, las personas de carne y hueso toman las decisiones. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están destinadas a ayudar [a los oficiales de inteligencia] a romper sus barreras».
En la práctica, sin embargo, las fuentes que han utilizado Lavender en los últimos meses dicen que la agencia y la precisión humanas fueron sustituidas por la creación masiva de objetivos y la letalidad.
«No había una política de ‘cero errores'»
B., un oficial de alto rango que usó Lavender, se hizo eco a +972 y Local Call de que en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA, con el fin de ahorrar tiempo y permitir la producción en masa de objetivos humanos sin obstáculos.
«Todo era estadístico, todo estaba ordenado, estaba muy seco», dijo B. Señaló que esta falta de supervisión se permitió a pesar de las comprobaciones internas que mostraban que los cálculos de Lavender se consideraban precisos sólo el 90 por ciento de las veces; en otras palabras, se sabía de antemano que el 10 por ciento de los objetivos humanos programados para ser asesinados no eran miembros del ala militar de Hamás en absoluto.
Por ejemplo, las fuentes explicaron que la máquina Lavender a veces señalaba erróneamente a personas que tenían patrones de comunicación similares a los de agentes conocidos de Hamás o de la Yihad Islámica en Palestina, incluidos policías y trabajadores de defensa civil, familiares de militantes, residentes que tenían un nombre y apodo idénticos a los de un activista, y habitantes de Gaza que utilizaban un dispositivo que alguna vez perteneció a un agente de Hamás.
«¿Qué tan cerca tiene que estar una persona de Hamás para que una máquina de IA la considere afiliada a la organización?», dijo una fuente crítica con la inexactitud de Lavender. «Es un límite impreciso. ¿Es un activista de Hamás una persona que no recibe un salario de Hamás, pero que le ayuda con todo tipo de cosas? ¿Alguien que estuvo en Hamás en el pasado, pero que ya no está allí, es un activista de Hamás? Cada una de estas características, características que una máquina marcaría como sospechosas, es inexacta».
Existen problemas similares con la capacidad de las máquinas de objetivos para evaluar el teléfono utilizado por un individuo marcado para ser asesinado. «En la guerra, los palestinos cambian de teléfono todo el tiempo», dijo la fuente. «La gente pierde el contacto con sus familias, le da su teléfono a un amigo o a una esposa, tal vez lo pierde. No hay forma de confiar al 100 por ciento en el mecanismo automático que determina qué número [de teléfono] pertenece a quién».
Según las fuentes, el ejército sabía que la mínima supervisión humana en el lugar no descubriría estas fallas. «No había una política de ‘cero errores’. Los errores se trataron estadísticamente», dijo una fuente que usó Lavender. «Debido al alcance y la magnitud, el protocolo era que incluso si no se sabe con certeza si la máquina está bien, se sabe que estadísticamente está bien. Así que vas a por ello».
«Ha demostrado su valía», dijo B., la fuente principal. «Hay algo en el enfoque estadístico que te establece en una cierta norma y estándar. Ha habido una cantidad ilógica de [bombardeos] en esta operación. Esto no tiene parangón, en mi memoria. Y tengo mucha más confianza en un mecanismo estadístico que en un soldado que perdió a un amigo hace dos días. Todos los que estaban allí, incluyéndome a mí, perdimos gente el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil».
Otra fuente de inteligencia, que defendió la dependencia de las listas de asesinatos de sospechosos palestinos generadas por Lavender, argumentó que valía la pena invertir el tiempo de un oficial de inteligencia solo para verificar la información si el objetivo era un alto comandante de Hamás. «Pero cuando se trata de un militante joven, no quieres invertir mano de obra y tiempo en ello», dijo. «En la guerra, no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a tomar el margen de error de usar inteligencia artificial, arriesgarte a daños colaterales y a que mueran civiles, y arriesgarte a atacar por error, y a vivir con ello».
B. dijo que la razón de esta automatización fue un impulso constante para generar más objetivos para el asesinato. «En un día sin objetivos [cuya calificación de características era suficiente para autorizar un ataque], atacamos en un umbral más bajo. Nos presionaban constantemente: ‘Tráigannos más objetivos’. Realmente nos gritaron. Terminamos de [matar] a nuestros objetivos muy rápidamente».
Explicó que al reducir el umbral de calificación de Lavender, marcaría a más personas como objetivos de huelgas. «En su apogeo, el sistema logró generar 37.000 personas como objetivos humanos potenciales», dijo B. «Pero los números cambiaban todo el tiempo, porque depende de dónde se establezca el listón de lo que es un operativo de Hamás. Hubo momentos en que un operativo de Hamás se definía de manera más amplia, y entonces la máquina comenzó a traernos todo tipo de personal de defensa civil, oficiales de policía, sobre los que sería una vergüenza desperdiciar bombas. Ayudan al gobierno de Hamás, pero en realidad no ponen en peligro a los soldados».
Una fuente que trabajó con el equipo de ciencia de datos militares que entrenó a Lavender dijo que los datos recopilados de los empleados del Ministerio de Seguridad Interna dirigido por Hamás, a quienes no considera militantes, también se introdujeron en la máquina. «Me molestó el hecho de que cuando Lavender fue entrenado, usaron el término ‘operativo de Hamás’ de manera vaga, e incluyeron a personas que eran trabajadores de defensa civil en el conjunto de datos de entrenamiento», dijo.
La fuente agregó que incluso si uno cree que estas personas merecen ser asesinadas, entrenar el sistema en función de sus perfiles de comunicación hizo que Lavender fuera más propenso a seleccionar civiles por error cuando sus algoritmos se aplicaron a la población general. «Dado que es un sistema automático que no es operado manualmente por humanos, el significado de esta decisión es dramático: significa que estás incluyendo a muchas personas con un perfil de comunicación civil como objetivos potenciales».
«Solo comprobamos que el objetivo era un hombre»
El ejército israelí rechaza rotundamente estas afirmaciones. En una declaración a +972 y Local Call, el portavoz de las FDI negó el uso de inteligencia artificial para incriminar objetivos, diciendo que se trata simplemente de «herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación». La declaración continuó: «En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia], que verifique que los objetivos identificados son objetivos legítimos para el ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional».
Sin embargo, las fuentes dijeron que el único protocolo de supervisión humana antes de bombardear las casas de los presuntos militantes «junior» marcados por Lavender era realizar un solo control: asegurarse de que el objetivo seleccionado por la IA sea masculino y no femenino. En el ejército se suponía que si el objetivo era una mujer, la máquina probablemente había cometido un error, porque no hay mujeres entre las filas de las alas militares de Hamás y la Yihad Islámica en Palestina.
«Un ser humano tenía que [verificar el objetivo] durante unos segundos», dijo B., explicando que esto se convirtió en el protocolo después de darse cuenta de que el sistema Lavender estaba «haciendo las cosas bien» la mayor parte del tiempo. «Al principio, hicimos comprobaciones para asegurarnos de que la máquina no se confundiera. Pero en algún momento confiamos en el sistema automático, y solo comprobamos que [el objetivo] fuera un hombre, eso era suficiente. No se necesita mucho tiempo para saber si alguien tiene una voz masculina o femenina».
Para llevar a cabo el control hombre/mujer, B. afirmó que en la guerra actual, «invertiría 20 segundos para cada objetivo en esta etapa, y haría docenas de ellos todos los días. No tenía ningún valor añadido como ser humano, aparte de ser un sello de aprobación. Ahorró mucho tiempo. Si [el agente] apareciera en el mecanismo automatizado y comprobara que era un hombre, habría permiso para bombardearlo, sujeto a un examen de daños colaterales».
En la práctica, las fuentes dijeron que esto significaba que para los hombres civiles marcados por error por Lavender, no existía un mecanismo de supervisión para detectar el error. Según B., un error común ocurría «si el objetivo [de Hamás] le daba [su teléfono] a su hijo, a su hermano mayor o simplemente a un hombre al azar. Esa persona será bombardeada en su casa con su familia. Esto sucedía a menudo. Estos fueron la mayoría de los errores causados por Lavender», dijo B.
PASO 2: VINCULAR LOS OBJETIVOS CON LOS HOGARES FAMILIARES
«La mayoría de las personas que mataron eran mujeres y niños»
La siguiente etapa en el procedimiento de asesinato del ejército israelí es identificar dónde atacar los objetivos que genera Lavender.
En una declaración a +972 y Local Call, el portavoz de las FDI afirmó en respuesta a este artículo que «Hamás coloca a sus operativos y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde dentro de las estructuras civiles, incluidos sitios sensibles como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las FDI están obligadas y actúan de acuerdo con el derecho internacional, dirigiendo sus ataques solo contra objetivos militares y operativos militares».
Las seis fuentes con las que hablamos se hicieron eco de esto hasta cierto punto, diciendo que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que los militantes de Hamás usan ambulancias para desplazarse; y que innumerables activos militares han sido situados cerca de edificios civiles. Las fuentes argumentaron que muchos ataques israelíes matan a civiles como resultado de estas tácticas de Hamás, una caracterización que los grupos de derechos humanos advierten que evade la responsabilidad de Israel por infligir las bajas.
Sin embargo, en contraste con las declaraciones oficiales del ejército israelí, las fuentes explicaron que una de las principales razones del número sin precedentes de muertos por los bombardeos actuales de Israel es el hecho de que el ejército ha atacado sistemáticamente objetivos en sus casas privadas, junto con sus familias, en parte porque era más fácil desde el punto de vista de la inteligencia marcar las casas de las familias utilizando sistemas automatizados.
De hecho, varias fuentes subrayaron que, a diferencia de los numerosos casos de activistas de Hamás que realizaban actividades militares desde zonas civiles, en el caso de los ataques sistemáticos de asesinato, el ejército optaba sistemáticamente por bombardear a los presuntos militantes cuando se encontraban dentro de los hogares civiles desde los que no se realizaba ninguna actividad militar. Esta elección, dijeron, era un reflejo de la forma en que está diseñado el sistema de vigilancia masiva de Israel en Gaza.
Las fuentes dijeron a +972 y Local Call que, dado que todos en Gaza tenían una casa privada con la que podían asociarse, los sistemas de vigilancia del ejército podían «vincular» fácil y automáticamente a las personas con las casas de las familias. Con el fin de identificar en tiempo real el momento en que los operarios entran en sus casas, se han desarrollado varios softwares automáticos adicionales. Estos programas rastrean a miles de personas simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial de objetivos, quien luego marca la casa para bombardearla. Uno de los varios de estos softwares de rastreo, revelado aquí por primera vez, se llama «¿Dónde está papá?»
«Pones cientos [de objetivos] en el sistema y esperas a ver a quién puedes matar», dijo una fuente con conocimiento del sistema. «Se llama caza amplia: se copia y pega de las listas que produce el sistema objetivo».
La evidencia de esta política también es clara en los datos: durante el primer mes de la guerra, más de la mitad de las víctimas mortales -6.120 personas- pertenecían a 1.340 familias, muchas de las cuales fueron completamente aniquiladas mientras estaban dentro de sus hogares, según cifras de la ONU. La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 en Gaza (que anteriormente fue la guerra más mortífera de Israel en la Franja), lo que sugiere aún más la importancia de esta política.
Otra fuente dijo que cada vez que el ritmo de los asesinatos disminuía, se añadían más objetivos a sistemas como ¿Dónde está papá? para localizar a las personas que entraron en sus casas y por lo tanto podrían ser bombardeadas. Dijo que la decisión de a quién colocar en los sistemas de rastreo podría ser tomada por oficiales de rango relativamente bajo en la jerarquía militar.
«Un día, totalmente por mi propia voluntad, agregué algo así como 1.200 nuevos objetivos al sistema [de rastreo], porque el número de ataques [que estábamos realizando] disminuyó», dijo la fuente. «Eso tenía sentido para mí. En retrospectiva, parece una decisión seria que tomé. Y esas decisiones no se tomaron a altos niveles».
Las fuentes dijeron que, en las primeras dos semanas de la guerra, «varios miles» de objetivos fueron introducidos inicialmente en programas de localización como ¿Dónde está papá? Entre ellos se encontraban todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nukhba, todos los activistas antitanque de Hamás y todos los que entraron en Israel el 7 de octubre. Pero en poco tiempo, la lista de asesinatos se amplió drásticamente.
«Al final fueron todos [marcados por Lavender]», explicó una fuente. «Decenas de miles. Esto sucedió unas semanas más tarde, cuando las brigadas [israelíes] entraron en Gaza, y ya había menos personas no involucradas [es decir, civiles] en las zonas del norte». Según esta fuente, incluso algunos menores fueron marcados por Lavender como objetivos de bombardeo. «Normalmente, los operarios son mayores de 17 años, pero eso no era una condición».
Lavender y sistemas como ¿Dónde está papá? por lo tanto, se combinaron con un efecto mortal, matando a familias enteras, dijeron las fuentes. Al agregar un nombre de las listas generadas por Lavender a la sección ¿Dónde está papá? A. explicó que la persona marcada sería puesta bajo vigilancia continua y podría ser atacada tan pronto como pusiera un pie en su casa, colapsando la casa sobre todos los que estaban dentro.
«Digamos que se calcula que hay un [operativo] de Hamás más 10 [civiles en la casa]», dijo A. «Por lo general, estos 10 serán mujeres y niños. Así que, absurdamente, resulta que la mayoría de las personas que mataste eran mujeres y niños».
PASO 3: ELEGIR UN ARMA
«Solíamos llevar a cabo los ataques con ‘bombas tontas'»
Una vez que Lavender ha marcado un objetivo para asesinarlo, el personal del ejército ha verificado que son hombres y el software de rastreo ha localizado el objetivo en su casa, la siguiente etapa es elegir la munición con la que bombardearlos.
En diciembre de 2023, CNN informó que, según estimaciones de la inteligencia estadounidense, alrededor del 45 por ciento de las municiones utilizadas por la fuerza aérea israelí en Gaza eran bombas «tontas», que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta al informe de CNN, un portavoz del ejército citado en el artículo dijo: «Comomilitares comprometidos con el derecho internacional y un código moral de conducta, estamos dedicando vastos recursos a minimizar el daño a los civiles a los que Hamás ha obligado a desempeñar el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra el pueblo de Gaza».
Tres fuentes de inteligencia, sin embargo, dijeron a +972 y Local Call que los agentes subalternos marcados por Lavender fueron asesinados solo con bombas tontas, con el fin de ahorrar armamento más caro. La implicación, explicó una fuente, era que el ejército no atacaría un objetivo menor si vivía en un edificio de gran altura, porque el ejército no quería gastar una «bomba de piso» más precisa y costosa (con un efecto colateral más limitado) para matarlo. Pero si un objetivo menor vivía en un edificio de pocos pisos, el ejército estaba autorizado a matarlo a él y a todos los que estaban en el edificio con una bomba tonta.
«Era así con todos los objetivos menores», atestiguó C., quien utilizó varios programas automatizados en la guerra actual. «La única pregunta era, ¿es posible atacar el edificio en términos de daños colaterales? Porque solíamos llevar a cabo los ataques con bombas tontas, y eso significaba literalmente destruir toda la casa encima de sus ocupantes. Pero incluso si se evita un ataque, no te importa: pasas inmediatamente al siguiente objetivo. Debido al sistema, los objetivos nunca terminan. Tienes otros 36.000 esperando».
PASO 4: AUTORIZACIÓN DE VÍCTIMAS CIVILES
«Atacamos casi sin considerar los daños colaterales»
Una fuente dijo que al atacar a los agentes subalternos, incluidos los marcados por sistemas de IA como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó durante las primeras semanas de la guerra en hasta 20. Otra fuente afirmó que el número fijo era de hasta 15. Estos «grados de daño colateral», como los llaman los militares, se aplicaron ampliamente a todos los presuntos militantes jóvenes, dijeron las fuentes, independientemente de su rango, importancia militar y edad, y sin un examen específico caso por caso para sopesar la ventaja militar de asesinarlos frente al daño esperado a los civiles.
Según A., que fue oficial en una sala de operaciones de tiro en la guerra actual, el departamento de derecho internacional del ejército nunca antes había dado una «aprobación tan amplia» para un grado tan alto de daños colaterales. «No se trata solo de que se pueda matar a cualquier persona que sea un soldado de Hamás, lo cual está claramente permitido y es legítimo en términos del derecho internacional», dijo A. «Pero te dicen directamente: ‘Se te permite matarlos junto con muchos civiles’.
«Cada persona que vistiera un uniforme de Hamás en el último año o dos podría ser bombardeada con 20 [civiles muertos como] daños colaterales, incluso sin un permiso especial», continuó A. «En la práctica, el principio de proporcionalidad no existía».
Según A., esta fue la política durante la mayor parte del tiempo que sirvió. Solo más tarde los militares redujeron el grado de daño colateral. «En este cálculo, también podrían ser 20 niños para un operativo junior… Realmente no era así en el pasado», explicó A. Cuando se le preguntó sobre la lógica de seguridad detrás de esta política, A. respondió: «Letalidad».
El grado de daño colateral predeterminado y fijo ayudó a acelerar la creación masiva de objetivos utilizando la máquina Lavender, dijeron las fuentes, porque ahorró tiempo. B. afirmó que el número de civiles que se les permitió matar en la primera semana de la guerra por presunto militante subalterno marcado por AI fue de quince, pero que este número «subió y bajó» con el tiempo.
«Al principio atacamos casi sin considerar los daños colaterales», dijo B. sobre la primera semana después del 7 de octubre. «En la práctica, realmente no se contaba a las personas [en cada casa que era bombardeada], porque realmente no se podía saber si estaban en casa o no. Después de una semana, comenzaron las restricciones a los daños colaterales. El número bajó [de 15] a cinco, lo que nos dificultó mucho el ataque, porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a subir el número».
«Sabíamos que mataríamos a más de 100 civiles»
Las fuentes dijeron a +972 y Local Call que ahora, en parte debido a la presión estadounidense, el ejército israelí ya no está generando objetivos humanos menores en masa para bombardear hogares civiles. El hecho de que la mayoría de las viviendas en la Franja de Gaza ya hayan sido destruidas o dañadas, y que casi toda la población haya sido desplazada, también afectó la capacidad del ejército para confiar en las bases de datos de inteligencia y los programas automatizados de localización de viviendas.
E. afirmó que el bombardeo masivo de militantes jóvenes tuvo lugar sólo en la primera o segunda semana de la guerra, y luego se detuvo principalmente para no desperdiciar bombas. «Hay una economía de municiones», dijo E. «Siempre tuvieron miedo de que hubiera [una guerra] en el norte [con Hezbolá en el Líbano]. Ya no atacan a este tipo de personas [jóvenes] en absoluto».
Sin embargo, los ataques aéreos contra comandantes de alto rango de Hamás aún están en curso, y las fuentes dijeron que para estos ataques, el ejército está autorizando el asesinato de «cientos» de civiles por objetivo, una política oficial para la que no hay precedentes históricos en Israel, o incluso en las recientes operaciones militares estadounidenses.
«En el bombardeo del comandante del Batallón Shuja’iya, sabíamos que mataríamos a más de 100 civiles», recordó B. sobre un atentado del 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. «Para mí, psicológicamente, fue inusual. Más de 100 civiles, cruza una línea roja».
Amjad Al-Sheikh, un joven palestino de Gaza, dijo que muchos de los miembros de su familia murieron en ese bombardeo. Residente de Shuja’iya, al este de la ciudad de Gaza, estaba en un supermercado local ese día cuando escuchó cinco explosiones que rompieron los vidrios de las ventanas.
«Corrí a la casa de mi familia, pero ya no había edificios allí», dijo Al-Sheikh a +972 y Local Call. «La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y pozos profundos. La gente empezó a buscar en el cemento, con las manos, y yo también, buscando señales de la casa de mi familia».
La esposa y la hija pequeña de Al-Sheikh sobrevivieron, protegidas de los escombros por un armario que cayó sobre ellas, pero encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos y sus hijos pequeños, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de ese día destruyó decenas de edificios, mató a decenas de personas y enterró a cientos bajo las ruinas de sus casas.
«Familias enteras fueron asesinadas»
Fuentes de inteligencia dijeron a +972 y Local Call que participaron en ataques aún más mortíferos. Con el fin de asesinar a Ayman Nofal, comandante de la Brigada Central de Gaza de Hamás, una fuente dijo que el ejército autorizó el asesinato de aproximadamente 300 civiles, destruyendo varios edificios en ataques aéreos contra el campo de refugiados de Al-Bureij el 17 de octubre, basándose en una identificación imprecisa de Nofal. Las imágenes satelitales y los videos de la escena muestran la destrucción de varios grandes edificios de apartamentos de varios pisos.
«Entre 16 y 18 casas fueron arrasadas en el ataque», dijo Amro Al-Khatib, un residente del campamento, a +972 y Local Call. «No podíamos distinguir un apartamento del otro, todos se mezclaron entre los escombros y encontramos partes de cuerpos humanos por todas partes».
Después, Al-Khatib recordó que alrededor de 50 cadáveres fueron sacados de entre los escombros y alrededor de 200 personas heridas, muchas de ellas de gravedad. Pero eso fue solo el primer día. Los residentes del campamento pasaron cinco días sacando a los muertos y heridos, dijo.
Nael Al-Bahisi, un paramédico, fue uno de los primeros en llegar a la escena. Contó entre 50 y 70 bajas en ese primer día. «En un momento dado, entendimos que el objetivo del ataque era el comandante de Hamás, Ayman Nofal», dijo a +972 y Local Call. «Lo mataron a él, y también a mucha gente que no sabía que estaba allí. Familias enteras con niños fueron asesinadas».
Otra fuente de inteligencia dijo a +972 y Local Call que el ejército destruyó un edificio de gran altura en Rafah a mediados de diciembre, matando a «docenas de civiles», para tratar de matar a Mohammed Shabaneh, el comandante de la Brigada Rafah de Hamás (no está claro si murió o no en el ataque). A menudo, dijo la fuente, los altos mandos se esconden en túneles que pasan por debajo de edificios civiles y, por lo tanto, la decisión de asesinarlos con un ataque aéreo necesariamente mata a civiles.
«La mayoría de los heridos eran niños», dijo Wael Al-Sir, de 55 años, quien presenció el ataque a gran escala que algunos habitantes de Gaza creen que fue el intento de asesinato. Le dijo a +972 y Local Call que el bombardeo del 20 de diciembre destruyó un «bloque residencial entero» y mató al menos a 10 niños.
«Hubo una política completamente permisiva con respecto a las bajas de las operaciones [de bombardeo], tan permisiva que, en mi opinión, tenía un elemento de venganza», afirmó D., una fuente de inteligencia. «El núcleo de todo esto fueron los asesinatos de altos mandos [de Hamás y de la Yihad Islámica en Palestina] por los que estaban dispuestos a matar a cientos de civiles. Teníamos un cálculo: cuántos para un comandante de brigada, cuántos para un comandante de batallón, etcétera».
«Había regulaciones, pero eran muy indulgentes», dijo E., otra fuente de inteligencia. «Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos. Son cosas que no han sucedido antes».
Una tasa tan alta de «daños colaterales» es excepcional no solo en comparación con lo que el ejército israelí consideraba aceptable anteriormente, sino también en comparación con las guerras libradas por Estados Unidos en Irak, Siria y Afganistán.
El general Peter Gersten, comandante adjunto de Operaciones e Inteligencia en la operación para combatir a ISIS en Irak y Siria, dijo a una revista de defensa estadounidense en 2021 que un ataque con daños colaterales de 15 civiles se desvió del procedimiento; para llevarlo a cabo, tuvo que obtener un permiso especial del jefe del Comando Central de Estados Unidos, El general Lloyd Austin, que ahora es secretario de Defensa.
«Con Osama Bin Laden, tendrías un valor de bajas no combatientes de 30, pero si tuvieras un comandante de bajo nivel, su NCV era típicamente cero», dijo Gersten. «Estuvimos a cero durante mucho tiempo».
«Nos dijeron: ‘Lo que puedas, bombardea'»
Todas las fuentes entrevistadas para esta investigación dijeron que las masacres de Hamás del 7 de octubre y el secuestro de rehenes influyeron en gran medida en la política de fuego del ejército y en los niveles de daños colaterales. «Al principio, la atmósfera era dolorosa y vengativa», dijo B., quien fue reclutado por el ejército inmediatamente después del 7 de octubre y sirvió en una sala de operaciones de tiro. «Las reglas eran muy indulgentes. Derribaron cuatro edificios cuando sabían que el objetivo estaba en uno de ellos. Fue una locura.
«Había una disonancia: por un lado, la gente aquí estaba frustrada porque no estábamos atacando lo suficiente», continuó B. Por otro lado, al final del día se ve que otros mil gazatíes han muerto, la mayoría de ellos civiles».
«Había histeria en las filas profesionales», dijo D., quien también fue reclutado inmediatamente después del 7 de octubre. «No tenían ni idea de cómo reaccionar. Lo único que sabían hacer era empezar a bombardear como locos para tratar de desmantelar las capacidades de Hamás».
D. subrayó que no se les dijo explícitamente que el objetivo del ejército era la «venganza», pero expresaron que «tan pronto como todos los objetivos relacionados con Hamás se vuelvan legítimos, y con casi cualquier daño colateral aprobado, está claro para ustedes que miles de personas van a ser asesinadas. Incluso si oficialmente todos los objetivos están conectados con Hamás, cuando la política es tan permisiva, pierde todo significado».
A. también usó la palabra «venganza» para describir la atmósfera dentro del ejército después del 7 de octubre. «Nadie pensó en qué hacer después, cuando termine la guerra, o cómo será posible vivir en Gaza y qué harán con ella», dijo A. «Nos dijeron: ahora tenemos que joder a Hamás, cueste lo que cueste. Lo que puedas, lo bombardeas».
B., la principal fuente de inteligencia, dijo que, en retrospectiva, cree que esta política «desproporcionada» de matar palestinos en Gaza también pone en peligro a los israelíes, y que esta fue una de las razones por las que decidió ser entrevistado.
«A corto plazo, estamos más seguros, porque perjudicamos a Hamás. Pero creo que estamos menos seguros a largo plazo. Veo cómo todas las familias afligidas en Gaza, que son casi todas, aumentarán la motivación para que [la gente se una] a Hamás dentro de 10 años. Y será mucho más fácil para [Hamás] reclutarlos».
En una declaración a +972 y Local Call, el ejército israelí negó gran parte de lo que nos dijeron las fuentes, afirmando que «cada objetivo se examina individualmente, mientras que se hace una evaluación individual de la ventaja militar y los daños colaterales esperados del ataque… Las FDI no llevan a cabo ataques cuando el daño colateral esperado del ataque es excesivo en relación con la ventaja militar».
PASO 5: CÁLCULO DE LOS DAÑOS COLATERALES
«El modelo no estaba conectado con la realidad»
Según las fuentes de inteligencia, el cálculo del ejército israelí sobre el número de civiles que se esperaba que fueran asesinados en cada casa junto a un objetivo —un procedimiento examinado en una investigación anterior por +972 y Local Call— se llevó a cabo con la ayuda de herramientas automáticas e imprecisas. En guerras anteriores, el personal de inteligencia pasaba mucho tiempo verificando cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles susceptibles de ser asesinados figuraba como parte de un «archivo de objetivos». Sin embargo, después del 7 de octubre, esta verificación exhaustiva se abandonó en gran medida en favor de la automatización.
En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel, que recopila información de teléfonos móviles en la Franja de Gaza y proporcionó a los militares una estimación en vivo del número de palestinos que huyeron del norte de la Franja de Gaza hacia el sur. El general de brigada Udi Ben Muha dijo al Times que «no es un sistema 100 por ciento perfecto, pero te da la información que necesitas para tomar una decisión». El sistema funciona de acuerdo con los colores: el rojo marca las áreas donde hay mucha gente, y el verde y el amarillo marcan las áreas que han sido relativamente despejadas de residentes.
Las fuentes que hablaron con +972 y Local Call describieron un sistema similar para calcular los daños colaterales, que se utilizó para decidir si bombardear un edificio en Gaza. Dijeron que el software calculó el número de civiles que residían en cada casa antes de la guerra, evaluando el tamaño del edificio y revisando su lista de residentes, y luego redujo esos números por la proporción de residentes que supuestamente evacuaron el vecindario.
Por ejemplo, si el ejército estimara que la mitad de los residentes de un barrio se habían ido, el programa contaría una casa que normalmente tenía 10 residentes como una casa con cinco personas. Para ahorrar tiempo, dijeron las fuentes, el ejército no vigiló las casas para verificar cuántas personas vivían realmente allí, como lo hizo en operaciones anteriores, para averiguar si la estimación del programa era realmente precisa.
«Este modelo no estaba conectado con la realidad», afirmó una fuente. «No había ninguna conexión entre los que estaban en la casa ahora, durante la guerra, y los que figuraban como viviendo allí antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que había varias familias adentro, escondidas juntas».
La fuente dijo que aunque el Ejército sabía que tales errores podían ocurrir, este modelo impreciso fue adoptado de todos modos, porque era más rápido. Como tal, dijo la fuente, «el cálculo de los daños colaterales fue completamente automático y estadístico», incluso produciendo cifras que no eran números completos.
PASO 6: BOMBARDEAR LA CASA DE UNA FAMILIA
«Mataste a una familia sin razón»
Las fuentes que hablaron con +972 y Local Call explicaron que a veces había una brecha sustancial entre el momento en que los sistemas de seguimiento como Where’s Daddy? alertó a un oficial de que un objetivo había entrado en su casa, y el bombardeo en sí, lo que provocó la muerte de familias enteras incluso sin alcanzar el objetivo del ejército. «Me pasó muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa», dijo una fuente. «El resultado es que mataste a una familia sin ninguna razón».
Tres fuentes de inteligencia dijeron a +972 y Local Call que habían sido testigos de un incidente en el que el ejército israelí bombardeó la casa privada de una familia, y más tarde resultó que el objetivo previsto del asesinato ni siquiera estaba dentro de la casa, ya que no se realizó ninguna otra verificación en tiempo real.
«A veces [el objetivo] estaba en casa antes, y luego por la noche se iba a dormir a otro lugar, digamos bajo tierra, y no te enterabas», dijo una de las fuentes. «Hay momentos en los que vuelves a verificar la ubicación, y hay momentos en los que simplemente dices: ‘Está bien, estuvo en la casa en las últimas horas, así que puedes bombardear'».
Otra fuente describió un incidente similar que lo afectó y lo hizo querer ser entrevistado para esta investigación. «Entendimos que el objetivo estaba en casa a las 8 p.m. Al final, la fuerza aérea bombardeó la casa a las 3 de la madrugada. Luego nos enteramos [en ese lapso de tiempo] que había logrado mudarse a otra casa con su familia. Había otras dos familias con niños en el edificio que bombardeamos».
En guerras anteriores en Gaza, después del asesinato de objetivos humanos, la inteligencia israelí llevaba a cabo procedimientos de evaluación de daños por bombas (BDA, por sus siglas en inglés), una verificación de rutina posterior al ataque para ver si el comandante superior había muerto y cuántos civiles habían muerto junto con él. Como se reveló en una investigación anterior de +972 y Local Call, esto implicó escuchar llamadas telefónicas de familiares que perdieron a sus seres queridos. Sin embargo, en la guerra actual, al menos en relación con los militantes jóvenes marcados con IA, las fuentes dicen que este procedimiento fue abolido para ahorrar tiempo. Las fuentes dijeron que no sabían cuántos civiles habían muerto realmente en cada ataque, y que en el caso de los presuntos activistas de bajo rango de Hamás y de la Yihad Islámica en Palestina marcados por la AI, ni siquiera sabían si el objetivo había sido asesinado.
«No sabes exactamente a cuántos mataste y a quién mataste», dijo una fuente de inteligencia a Local Call para una investigación previa publicada en enero. «Solo cuando se trata de activistas de alto rango de Hamás se sigue el procedimiento del BDA. En el resto de los casos, no te importa. Recibes un informe de la fuerza aérea sobre si el edificio fue volado, y eso es todo. No tienes idea de la cantidad de daños colaterales que hubo; Inmediatamente pasas al siguiente objetivo. El énfasis era crear tantos objetivos como fuera posible, lo más rápido posible».
Pero aunque el ejército israelí puede dejar atrás cada ataque sin detenerse en el número de víctimas, Amjad Al-Sheikh, el residente de Shuja’iya que perdió a 11 de sus familiares en el bombardeo del 2 de diciembre, dijo que él y sus vecinos todavía están buscando cadáveres.
«Hasta ahora, hay cuerpos bajo los escombros», dijo. «Catorce edificios residenciales fueron bombardeados con sus residentes dentro. Algunos de mis familiares y vecinos todavía están enterrados».
* Yuval Abraham es un periodista y cineasta radicado en Jerusalén.
Imagen de portada: El humo se eleva después de los ataques aéreos israelíes en Bet Lahia, en el norte de la Franja de Gaza, el 28 de diciembre de 2023. | Foto: Yonatan Sindel / Flash 90.
0 Comentario