sábado, 10 de agosto de 2024

Lavender — O Novo Sistema de Inteligência Artificial de Israel


por Roberto Mansilla Blanco
Este sistema de inteligência artificial (IA) foi desenvolvido por seis oficiais do departamento de Ciência de Dados e Inteligência Artificial da Unidade 8200. Esta é uma divisão de Inteligência de elite das Forças de Defesa de Israel (IDF). O software permite que grandes quantidades de dados sejam rapidamente processadas, a fim de gerar milhares de “alvos” potenciais para ataques militares durante uma guerra. O sistema facilita a localização e a tomada de decisão para agir.
Lavender opera através do processamento massivo de dados coletados através de sistemas de vigilância. Ele usa algoritmos de aprendizado de máquina para avaliar e classificar a probabilidade de cada indivíduo estar ativo nas alas militares mencionadas. A IA procura padrões e características que se correlacionem com perfis militantes conhecidos. Isso pode incluir participação em grupos específicos do WhatsApp, mudanças frequentes de número de telefone ou padrões de movimento incomuns.
Os responsáveis ​​que trabalharam na criação do Lavender afirmaram que este sistema permite “fazer um trabalho essencial para identificar rapidamente potenciais agentes de ataque. Graças a este sistema, os objetivos nunca terminam. A máquina funciona friamente.
Além disso, Lavender é complementado por outro sistema de IA: “The Gospel” (“O Evangelho”) cuja diferença fundamental está na definição do objetivo. Enquanto "O Evangelho" marca os edifícios e estruturas a partir dos quais os militares dizem que os militantes operam, Lavender marca as pessoas e adiciona-as a uma 'lista negra'.
A sua utilização inédita num conflito militar como a atual guerra de Gaza permitiu a detecção de um total de 37 mil alvos potenciais de acordo com as suas ligações com os movimentos islâmicos palestinos Hamas e Jihad Islâmica, ambos considerados grupos terroristas por Israel, pelos Estados Unidos e pela União Europeia. Em Gaza, Lavender foi fundamental durante as fases iniciais da guerra na identificação desses alvos.
Especialistas e fontes de inteligência afirmam que o uso de Lavender ajudou o exército israelense a destruir alvos inimigos de forma mais rápida e menos custosa economicamente, através do uso das chamadas “bombas tontas”, munições não guiadas, diferentes das “bombas inteligentes” com maior precisão.
No entanto, o software também levou a um aumento no número de mortes. Segundo estatísticas das Nações Unidas, as vítimas até agora são perto de 34 mil pessoas. De acordo com dados de dezembro de 2023 dos serviços de inteligência dos EUA, cerca de 45% das munições usadas pela força aérea israelense em Gaza eram "bombas tontas". Estas causam mais danos colaterais do que as bombas guiadas. A elevada taxa de danos colaterais em Gaza é superior à das guerras no Iraque, na Síria e no Afeganistão.
Lavender analisa informações recolhidas através de visão, celulares, redes sociais, contatos telefônicos, dados de campos de batalha e fotografias sobre a maioria dos 2,3 milhões de residentes da Faixa de Gaza através de um sistema de vigilância em massa. Em seguida, avalia e classifica a probabilidade de cada pessoa pertencer ao braço armado do Hamas ou da Jihad Islâmica Palestina.
Fontes israelenses estimam aproximadamente 10% de erros. Às vezes, sinalizando pessoas que têm apenas uma ligeira ligação com grupos militantes ou nenhuma ligação. Pouco depois da invasão de Gaza, os resultados de Lavender alcançaram 90% de precisão na identificação de pessoas que pertenciam ao grupo islâmico. Portanto, o exército autorizou o uso generalizado do sistema.
Após o ataque do Hamas a Israel em 7 de Outubro de 2023, os militares israelitas adoptaram uma abordagem radicalmente diferente. No âmbito da "Operação Iron Swords" (Operação Espadas de Ferro), o exército decidiu designar todos os agentes da ala militar do Hamas como alvos humanos, independentemente da sua posição ou importância militar.
Esta estratégia representou um problema técnico para os serviços de inteligência israelitas. Nas guerras anteriores, para autorizar a morte de um único alvo humano, um oficial tinha de passar por um processo complexo e demorado de “incriminação”. Tinha de verificar se a pessoa era de fato um membro de alto escalão da ala militar do Hamas, descobrir onde morava, os seus dados de contato e, finalmente, saber quando estava em casa em tempo real. Quando a lista de alvos continha apenas algumas dezenas de oficiais de alta patente, o pessoal dos serviços de informação poderia empreender individualmente o trabalho de incriminá-los e localizá-los.
No entanto, quando a lista se expandiu para incluir dezenas de milhares de agentes de patente inferior, os militares israelitas pensaram que tinham de confiar em software automatizado e Inteligência Artificial. O resultado é que o papel do pessoal humano na incriminação dos combatentes palestinianos foi descartado e, no seu lugar, a IA faz a maior parte do trabalho.
A utilização desta tecnologia no campo de batalha também abre portas ao debate sobre a legalidade deste tipo de armamento e a sua relação com os militares. As Nações Unidas denunciaram o uso de IA em Gaza. Várias fontes de informação cunharam seu uso como domicídio. O termo refere-se ao fato dos seus alvos atingirem casas, edifícios e outras casas de supostos militantes do Hamas.
Estima-se que esta tecnologia tenha pouca supervisão humana. Na verdade, segundo fontes de inteligência, ela influenciou as operações militares a tal ponto que basicamente trataram os resultados de Lavendercomo se fosse uma decisão humana”.
Na primeira fase da guerra, o Exército Israelense autorizou os oficiais a assumirem como legítimas as listas de alvos geradas por Lavender. Sem a necessidade de verificar minuciosamente por que o software tomou essas decisões ou analisar as informações. Os oficiais não eram obrigados a revisar de forma independente as avaliações do sistema de IA. Tudo isso para economizar tempo e permitir a produção em massa, sem obstáculos, dos objetivos humanos.
Uma fonte afirmou que a equipe humana muitas vezes servia apenas como um “carimbo” para aprovar automaticamente as decisões das máquinas. Além disso, eles geralmente gastavam pessoalmente apenas cerca de “20 segundos” para cada alvo antes de autorizar um bombardeio. Apenas para ter certeza de que o alvo marcado por Lavender era um homem. O instrumento era aplicado geralmente à noite, quando os alvos estavam em suas residências.
Segundo estas fontes, milhares de palestinos — a maioria deles mulheres e crianças ou pessoas que não participaram nos combates — foram aniquilados por ataques aéreos israelitas, especialmente durante as primeiras semanas da guerra. Numa medida sem precedentes, durante as primeiras semanas da guerra, o Exército também decidiu que por cada militante júnior do Hamas marcado por Lavender seria permitido matar até 15 ou 20 civis. No caso de o alvo ser um alto funcionário do Hamas com a patente de comandante de batalhão ou de brigada, o Exército autorizou, em diversas ocasiões, a morte de mais de 100 civis na execução de um comandante. Segundo fontes da inteligência israelense, “na prática, o princípio da proporcionalidade não existia”.
Outra fonte dos serviços de inteligência confirmou a pressão constante recebida dos comandantes superiores do exército para expandir o número de objetivos e eliminá-los rapidamente através da IA. Assim, dados coletados de funcionários do Ministério de Segurança Interna administrado pelo Hamas, que não são considerados militantes, foram inseridos no software. A utilização do termo “agente do Hamas” incluía pessoas que trabalhavam na defesa civil.
No entanto, em contraste com as declarações oficiais do exército israelita, fontes explicaram que uma das principais razões para o número sem precedentes de mortes causadas pelos atuais bombardeios de Israel é o fato de terem sido atacados, sistematicamente alvos nas suas casas, os indivíduos e suas famílias. Segundo dados das Nações Unidas, durante o primeiro mês da guerra, mais de metade das vítimas mortais — 6.120 pessoas — pertenciam a 1.340 famílias, muitas das quais foram completamente exterminadas enquanto estavam dentro das suas casas.
Nas anteriores guerras intermitentes em Gaza, de 2009 a 2021, após a morte de alvos humanos, os serviços de inteligência israelitas realizaram procedimentos de avaliação de danos causados ​​por bombas, uma verificação de rotina pós-ataque para ver se comandantes superiores tinham sido mortos e quantos civis tinham morrido com isso.
No entanto, na guerra atual, pelo menos em relação aos militantes de baixo escalão marcados com IA, fontes dizem que este procedimento foi abolido para poupar tempo. Também não sabiam quantos civis foram mortos em cada ataque e, no caso de supostos agentes de baixa patente do Hamas e da Jihad Islâmica sinalizados pela IA, nem sequer sabiam se os próprios alvos tinham sido mortos.
Fonte: tradução livre de Boletim LISA
COMENTO: impressiona a hipocrisia dos analistas ao citarem o morticínio de civis no conflito Israel-Hamas. Sempre desconsideram o fato de que existe um confronto onde os civis fazem parte de um dos lados. Em outras palavras: os tais analistas não contabilizam os civis israelenses mortos nos ataques dos terroristas — que sempre contam com o fanático apoio da população que dizem representar —, mas os adversários de Israel, estando em trajes civis, não são considerados combatentes e possíveis alvos das armas sionistas. E os "guerreiros" do Hamas, assim como do Hezbollah ou da Jihad Islâmica nunca usam uniformes!

Nenhum comentário:

Postar um comentário

Atravanca um palpite aqui: