Lavender, Where's Daddy e Gospel: Gaza como caso de referência da guerra algorítmica

Lavender, Where's Daddy, Gospel e Project Nimbus tornam Gaza o caso de referência empírico para a doutrina de IA aplicada ao combate na próxima década.

A guerra de Gaza é o conflito analiticamente mais significativo da década de 2020 para o estudo da guerra algorítmica. Produziu o caso documentado mais completo de compressão acelerada por IA da cadeia de eliminação na história operacional.

O ponto de partida cronológico é a Operação Al-Aqsa Flood do Hamas, em 7 de outubro de 2023: 1.200 mortos e cerca de 250 reféns. A resposta operacional israelense que se seguiu introduziu um conjunto de sistemas de IA cuja documentação pública alterou de forma irreversível o debate sobre uso militar de algoritmos.

Lavender: targeting algorítmico em escala industrial

O sistema Lavender, utilizado pela Unidade 8200 da IDF, gera listas ranqueadas de operativos militares designados do Hamas com base em análise de padrões de vida. A investigação publicada pela +972 Magazine e pela Local Call em abril de 2024 documentou os parâmetros operacionais centrais:

  • Cerca de 37 mil palestinos em Gaza marcados como alvos potenciais
  • Tempo médio de revisão humana por designação: 20 segundos antes da aprovação do ataque

Vinte segundos não é supervisão humana significativa. É homologação. A revisão por operador, na taxa documentada, é estruturalmente insuficiente diante do volume processado pelo sistema.

Where's Daddy: o vetor de letalidade civil

O sistema secundário Where's Daddy rastreia os alvos designados até as respectivas residências. Aciona o ataque quando o alvo está em casa.

Esta é a doutrina operacional que produz, mecanicamente, as altas razões civil-combatente observadas em áreas residenciais. Atacar o alvo na residência significa atacá-lo na presença previsível de familiares e vizinhos. O resultado deixa de ser um efeito colateral imprevisto e passa a ser uma característica determinística da regra de engajamento codificada no sistema.

Gospel: alvos de infraestrutura

O Gospel opera no eixo complementar: geração assistida por IA de alvos de infraestrutura e sítios militares. Em conjunto, os três sistemas — Lavender, Where's Daddy e Gospel — comprimem o ciclo sensor-atirador de horas para minutos.

O efeito agregado é uma cadeia de eliminação em que o gargalo deixa de ser o produto da inteligência e passa a ser a capacidade física de munição lançada. A IA elimina o atrito que historicamente limitava o tempo de saturação de alvos.

Cronologia de 2026: degradação do espaço humanitário

  • 17 de abril de 2026 — fogo da IDF mata dois contratados da UNICEF que entregavam água no norte de Gaza. A UNICEF suspende a operação de uma estação crítica de enchimento de água.
  • 29 de abril de 2026 — a IDF distribui mapas da Linha Laranja a organizações humanitárias, reivindicando controle territorial em aproximadamente 64% de Gaza — 11 pontos percentuais além da Linha Amarela mandatada pelo cessar-fogo. Três trabalhadores humanitários (UNICEF/OMS) foram mortos na zona entre as linhas desde meados de março.
  • 3 de maio de 2026 — o gabinete de segurança israelense delibera o retorno a operações de combate em larga escala após a recusa do Hamas em dissolver as Brigadas Al-Qassam. Nenhuma ordem operacional foi emitida.

Project Nimbus e a infraestrutura corporativa

O lado da infraestrutura corporativa do tema entrou no domínio público com o Project Nimbus, contrato de US$ 1,2 bilhão de nuvem e IA entre o Google e o governo/militar israelense. Em abril de 2024, o Google demitiu 28 funcionários após protestos internos contra o contrato.

A linha entre fornecedor de nuvem corporativo e fornecedor militar foi reescrita sem que o debate público acompanhasse.

Implicações analíticas

A guerra de Gaza estabelece o caso de referência empírico para três questões que dominarão a próxima década de doutrina militar:

  • O que constitui supervisão humana significativa quando o sistema opera em escala industrial
  • Como regras de engajamento codificadas em software produzem efeitos determinísticos sobre populações civis
  • Como o perímetro entre infraestrutura corporativa de nuvem e cadeia de targeting militar é regulado

Lavender, Where's Daddy e Gospel não são casos isolados. São o estado da arte documentado. Toda doutrina militar futura sobre IA aplicada ao combate será escrita em diálogo com este registro empírico.