PALESTINA. INTELIGENCIA ARTIFICIAL COMO INTELIGENCIA LETAL / 346
LA PRÁCTICA ISRAELÍ DEL VIBE MURDERING PARA ANIQUILAR A LA POBLACIÓN PALESTINA
Dos pilares sustentan la lógica de la modernidad: el cálculo racional y el biopoder. Estos principios guían el discurso detrás de los defensores del genocidio perpetrado por Israel en la Franja de Gaza y para muchos sus argumentos suenan intuitivos y aceptables. Sin embargo, los discursos sociales nunca se quedan en el ámbito de lo retórico, sino que se vuelven práctica, práctica que opera y se materializa en la tecnología.
Ahora, el cálculo racional y el biopoder se fusionan con la última tecnología distópica: el uso de inteligencia artificial (IA) por parte de las Fuerzas de Defensa de Israel (FDI) para maximizar el número de víctimas entre los palestinos. El cálculo racional y el biopoder son conceptos estudiados por Max Weber y Michel Foucault respectivamente. A grandes rasgos, la lógica del cálculo racional establece que en la modernidad todo puede medirse con el propósito de estudiar y mejorar los procesos de producción y trabajar de forma más eficiente. Por otro lado, el biopoder dicta que, en aras de maximizar la vida, el Estado debe administrarla racionalmente y, de forma paralela, administrar la muerte de otras poblaciones que puedan amenazar la existencia de la sociedad. Lo que liga ambos principios es el estudio y la administración de las poblaciones de forma metódica. Si, de acuerdo con Weber, en la modernidad todo se cuantifica, también es posible cuantificar la vida y se puede realizar un cálculo de equivalencia entre los seres humanos. La metodología seguida por las FDI para decidir asesinar a un comandante de Hamas que dicen que generó bajas civiles sigue este principio: “Sacamos el cálculo: cuántos civiles por comandante de brigada, cuántos por comandante de batallón, y así sucesivamente” (Abraham Yuval sobre el software Lavender, +972 Magazine).
Su importancia, como describe Weber, es la de tomar decisiones de una manera racional, de tal forma que se lleven a cabo las metas predefinidas, que en este caso es la muerte. Esa equivalencia humana determina si es posible atacar o no a un objetivo: si el número de vidas se encuentra dentro del cálculo, es justificable, y la decisión se lleva a cabo; de lo contrario, la misión se aborta. No obstante, la lógica de la modernidad dicta que el cálculo está dirigido a la eficiencia, lo que implica acelerar el proceso de matar.
Un artículo de la revista israelí +972 Magazine (Abraham Yuval, “Lavender: The AI machine directing Israel’s bombing spree in Gaza”) revela la existencia de dos mecanismos de inteligencia artificial: el proyecto Lavender y Where’s Daddy?, usados extensivamente durante las dos primeras semanas de la guerra para generar y analizar objetivos de asesinatos. Ambos sistemas analizan datos de miles de palestinos para asignarles un número de acuerdo a la probabilidad de que sean miembros de alguna milicia. Para ello, se evalúan diversas características, tales como encontrarse en el mismo grupo de WhatsApp que algún miembro o cambiar frecuentemente de teléfono celular. Además, los sistemas de inteligencia artificial se utilizan para calcular la relación entre el número de civiles y de militantes presentes en una determinada casa y decidir si tal número entra dentro del umbral permitido de daño colateral: “De acuerdo con fuentes de inteligencia, los cálculos del ejército israelí del número de civiles que se espera matar en cada casa junto con la persona blanco… se efectuó con la ayuda de herramientas automáticas e inadecuadas”.
Esta naciente tecnología fue integrada como asistente en la toma de decisiones tan sensibles como la posibilidad de quitar una vida humana. Empero, es necesario notar que la efectividad de los modelos de IA para la realización de tareas complejas no está demostrada y, por el contrario, se sabe que aún cometen graves errores. En el mundo de la programación, el término vibe coding se utiliza para designar una práctica en la cual un individuo describe a un modelo de IA el proyecto que desea desarrollar y deja que escriba el código por sí sola. Durante todo el proceso el individuo no escribe ni una sola línea de código, es más, ni siquiera tiene que saber programar, sólo confía en el conocimiento y potencial del modelo. No hace falta decir que los resultados generalmente son desastrosos: programas mal hechos, bases de datos inseguras, interfaces rotas, etcétera. Los modelos ex
tensos del lenguaje aún no son lo suficientemente buenos como para automatizar el trabajo humano.
Por otro lado, si las consecuencias de dejar que la IA realice trabajo sin supervisión son catastróficas, aún más catastróficas son las consecuencias cuando se le delega la vida y la muerte de varios individuos. El artículo de +972 Magazine narra cómo Lavender y Where’s Daddy? pasaron de ser sistemas que asistían en la generación de objetivos letales y la toma de decisiones a volverse totalmente autónomos, un proceso que llamo vibe murdering: el uso de inteligencia artificial para asesinar de forma automática y sin supervisión. Los modelos de IA generativa funcionan por medio de cálculos estadísticos y la confianza en su efectividad reside precisamente en la suposición de que tales cálculos son altamente confiables. Así, las FDI concluyeron que la IA debe ser lo suficientemente inteligente para matar: “Dado el alcance y la magnitud, el protocolo consiste en que aunque ignoras si la máquina está en lo correcto, tú sabes que estadísticamente es aceptable”.
De este modo, se reemplaza la supervisión humana y se deja que la IA mate por sí sola, porque es lo suficientemente inteligente, eficiente y precisa para hacerlo: “Al principio hicimos revisiones para asegurar que la máquina no se confundiera. Pero en cierto punto confiamos en el sistema automático, y sólo revisamos que el blanco era un individuo”, sin tener en cuenta las potenciales consecuencias trágicas: “En la guerra no hay tiempo para identificar cada objetivo. Prefieres asumir el margen de error por el uso de IA, arriesgando daños colaterales y civiles muertos, arriesgarte a atacar por error, y vivir con ello”. Sin embargo, en el vibe murdering las consecuencias son exponencialmente más catastróficas que en el vibe coding: “Puesto que es un sistema automático que no es operado manualmente por humanos, la decisión adquiere un significado dramático: significa que incluyes a muchas personas con un perfil de comunicación civil como blancos potenciales”.
Si las consecuencias de usar sistemas automáticos son tan graves, ¿por qué se permiten? ¿Qué razonamiento lo justifica? Lo que motiva el vibe coding es la necesidad de producir de forma más rápida y eficiente. Eso es lo que se encuentra detrás de los recientes despidos masivos por parte de empresas que reemplazan su fuerza de trabajo con inteligencia artificial. Amazon recientemente despidió 14 mil empleados aduciendo que “se espera seguir contratando personal para áreas clave mientras se encuentran lugares adicionales donde podemos retirar niveles, incrementar la propiedad y ganar en eficiencia” (Ramishah Maruf).
De igual manera, lo que motivó el vibe murdering fue la necesidad de matar de forma más eficiente: “En la guera en curso, a los oficiales no se les pidió una revisión independiente de los recursos de IA, para ganar tiempo y permitir la producción masiva de objetivos humanos sin obstáculos” (Yuval). Como la capacidad humana de producción (o, en este caso, de letalidad) es limitada, se vuelve necesario eliminar su intervención: “Los humanos no podemos procesar tanta información. No importa a cuántas personas han encargado producir objetivos durante la guerra, no lograrás producir suficientes objetivos al día” (Yuval).
No es sólo un asunto de maximizar resultados, sino también de reducir costos. El cálculo, no obstante, no se limita al aumento de la capacidad de letalidad, sino también al ahorro de recursos. +972 narra que el aumento en el número de palestinos asesinados fue consecuencia directa de la necesidad de ahorrar armas: “Tres fuentes de inteligencia, no obstante, dijeron a +972 y a Local Call que los operativos menores marcados por Lavender fueron asesinados sólo con bombas tontas, con la finalidad de ahorrar en armamentos. Hay una economía de las balas”.
La estrategia no es solamente un cálculo de vidas, sino también económico. La necesidad de ahorrar tiempo también motivó el asesinato en masa: “Según las fuentes, el ejército no revisó los hogares para revisar el número de personas viviendo allí, como en operaciones anteriores” (Yuval).
El genocidio es, pues, consecuencia del cálculo ahorrativo. No es casualidad que el cálculo de la vida esté ligado al proceso de producción capitalista, pues como demuestra el antropólogo David Graeber en el libro En deuda: una historia alternativa de la economía, ése es el origen del dinero: la equivalencia entre la vida de las personas y los objetos. Para que ello sea posible, es necesario sacar a la persona de su contexto social, sus relaciones con otros seres vivos, objetivizarla y reducirla a un número. Esta lógica permite que los palestinos dejen de verse como seres humanos para volverse “daño colateral”, un término vago que justifica y borra la violencia detrás de su muerte. Esto es relevante porque, si la vida es un número, también lo es la muerte, y se vuelve más sencillo llevarla a cabo. Tal retórica se encuentra tan normalizada que incluso se ha vuelto un estándar en el derecho internacional. La justificación moral para este tipo de procedimientos es que cierto número de personas debe morir para que muchas más se salven; es la lógica del biopoder. Esto, se piensa, sólo es justificable cuando el número de muertes es calculado metódicamente, algo que se conoce como el principio de proporcionalidad, establecido en el Artículo 57 del Protocolo I de los Convenios de Génova, el cual estipula que un ataque debe ser cancelado si puede causar un daño civil “excesivo en relación concreta y directa con la ventaja militar anticipada” (Comité Internacional de la Cruz Roja), pues el hecho de que sea un número lo vuelve riguroso y objetivo.
Incluso +972 Magazine, que denuncia estas atrocidades, no cuestiona la ética detrás del daño colateral, sino el hecho de que es calculado incorrectamente. El principio de proporcionalidad se justifica porque es un cálculo racional y ¿qué mejor que una inteligencia artificial, no sesgada como la humana, para realizar ese cálculo? Sin embargo, como lo menciona Hamutal Esther Shamash al preguntarse qué tanto es demasiado, esa relación es vaga, pues en ningún momento se define cómo debe calcularse ni qué tanto se considera excesivo. En consecuencia, se vuelve arbitrario y la narrativa colapsa. En el caso particular del genocidio en Gaza, tal cálculo es arbitrario en dos dimensiones: la metodología y el número. La metodología no se encuentra claramente definida: “¿Qué tan cerca debe estar de Hamas una persona para ser considerada por la IA como miembro de la organización?”, expresa un crítico de Lavender.
Por consiguiente, el daño colateral aceptable también se define arbitrariamente: “Los números cambian todo el tiempo porque depende dónde pongas la barra para definir quién es un miembro de Hamas” (Yuval). Se pueden matar tantos civiles como se desee. Esta vaguedad es la que permite a los defensores del gobierno israelí negar que existe un genocidio, pues al no quedar claro qué metodología es apropiada, ésta puede ser modificada a modo para negar que algún crimen se haya cometido.
No obstante, el problema no es que el sistema de IA o los cálculos sean imprecisos, el problema es que el cálculo existe. La lógica genocida sigue el principio del biopoder de preservar la vida por medio de la muerte. El objetivo es la disuasión: asegurarse de que la capacidad letal sea tan grande que nadie se atreva a amenazar la vida, algo que sólo se logra demostrando que uno tiene una capacidad letal mucho mayor.
Cuando esa capacidad es violada, como ocurrió el 7 de octubre de 2023, esa lógica dicta que la única consecuencia posible es la de restaurar el orden anterior y por ende matar tantos palestinos como se pueda. Si esto suena como castigo es porque en efecto es un tipo de venganza. Un informante de Yuval describía con la palabra “venganza” la atmósfera en las fuerzas armadas de Israel.
+972 incluso considera que tales actos son inmorales no por su propia naturaleza, sino porque tienen consecuencias futuras para la preservación de la población israelí: “B., veterano de inteligencia, dijo que en retrospectiva considera que la ‘desproporcionada’ matanza de palestinos en Gaza pone en peligro a los israelíes, y ésa fue una de las razones por las que aceptó ser entrevistado”.
El biopoder es tan efectivo gracias a la capacidad de administrar y vigilar las poblaciones sobre las que opera. Lo que facilita el asesinato automático de palestinos es el panóptico en que viven. Se les vigila en todos los aspectos de su vida y su privacidad es constantemente violada para volverlos un número: “El software Lavender analiza la información recolectada de 2 millones 300 mil residentes en la Franja de Gaza a través del sistema de vigilancia masiva, y entonces determina las posibilidades de que un individuo en particular sea un miltante activo de Hamas o de la jihad islámica”.
El sistema de defensa israelí está construido en gran parte alrededor de su capacidad para monitorear a los palestinos y estructurar su vida con el objetivo de estudiarlos y controlar su comportamiento. The New York Times informó sobre una base en el sur de Israel que recoge información de los teléfonos móviles de Gaza y provee a los militares información sobre los palestinos desplazados del norte al sur de la Franja.
De esta manera, así como en el mundo corporativo se debe de hacer un análisis para saber si la estrategia de negocios tuvo éxito, lo que implica hacer un estudio acerca del impacto de tal estrategia, en el caso del genocidio, la métrica de éxito es el número de comandantes asesinados y la estrategia de evaluación implica espiar a los palestinos hasta en la muerte. Abraham Yuval reporta: “En las guerras previas contra Gaza, después del asesinato de objetivos humanos, la inteligencia israelí llevaba a cabo procedimientos de evaluación (Bomb Damage Assesment, BDA), una rutina para confirmar si el mando que se atacó había sido efectivamente liquidado y cuántos civiles habían muerto con él… ello implicaba escuchar las llamadas telefónicas de familias que perdieron a sus seres queridos en el ataque”.
Tal panóptico no es, empero, responsabilidad exclusiva del ejército israelí, que por sí solo carece de recursos para mantener ese sistema. La vigilancia masiva no podría ser posible sin la ayuda de las grandes empresas tecnológicas que desarrollan los modelos de IA y permiten a las FDI utilizar su infraestructura. Microsoft firmó un contrato con la Unidad 8200 del ejército israelí para usar sus servicios en la nube y poder almacenar millones de llamadas telefónicas de palestinos debido a que los servidores militares israelíes ya se encontraban saturados (Yuval, “Microsoft storing…”). Por otro lado, por medio del Projecto Nimbus, Amazon y Google le permiten a las FDI utilizar sus servicios en la nube de IA y computación y tienen prohibido cancelar el servicio aun si encuentran evidencia de que se están utilizando en violaciones de derechos humanos (Yuval, “‘No restrictions’…”).
De momento, tras la revelación de +972 Magazine, sólo Microsoft ha anunciado la revocación del acceso a algunos de sus servicios al ejército israelí (Yuval, “Microsoft revokes…”). Falta ver qué acciones toman Amazon y Google. El uso de la IA para asesinar de forma automática demuestra que el cálculo racional y el biopoder no son sólo un recurso retórico. Existe una estrecha relación entre los discursos sociales, la tecnología, la vida humana y la muerte que tiene consecuencias prácticas y letales en el mundo. El genocidio en Gaza es sólo un ejemplo de esas relaciones, pero no se limitan a ello. Cuando la lógica que administra la vida es la misma que administra el trabajo lo único que se puede esperar es que las sociedades se gestionen de la misma manera que se gestiona una empresa. Si nos preocupa que la inteligencia artificial sea tan eficiente como para quitarnos el trabajo, más nos debería preocupar que sea tan eficiente como para quitarnos la vida.
David Graeber, “Games with Sex and Death”, Debt: The First 5,000 Years, Melville House Publishing, 2011, pp. 127-164.
Comité Internacional de la Cruz Roja, “Protocols Additional To The Geneva Conventions Of 12 August 1949”, 2010, https://www.icrc.org/sites/default/files/external/doc/en/assets/files/other/icrc_002_0321.pdf
Ramishah Maruf, “Amazon just cut 14,000 jobs, and it’s not done”. CNN, 28 de octubre de 2025, https://edition.cnn.com/2025/10/28/business/amazon-layoffs
Hamutal Shamash, “How Much is Too Much? An Examination of the Principle of Jus in Bello Proportionality”,
Israel Defense Forces Law Review, vol. 2, 2005-2006.
Abraham Yuval, “‘Lavender’: The AI machine directing Israel’s bombing spree in Gaza”. +972 Magazine, 3 de abril de 2024, https://www.972mag.com/lavender-ai-israeliarmy-gaza/—“Microsoft revokes cloud services from Israel’s Unit 8200, following +972 exposé”. +972 Magazine, 25 de septiembre de 2025, https://www.972mag.com/microsoft-8200-intelligence-surveillance-cloud-azure/
—“Microsoft storing Israeli intelligence trove used to attack Palestinians”. +972 Magazine, 6 de agosto de 2025, https://www.972mag.com/microsoft-8200-intelligence-surveillance-cloud-azure/ —“‘No restrictions’ and a secret ‘wink’: Inside Israel’s deal with Google, Amazon”. +972 Magazine, 29 de octubre de 2025, https://www.972mag.com/project-nimbus-contractgoogle-amazon-israel/