Israel mirou comboio de ajuda ‘carro por carro’ – fundador da instituição de caridade

O programa foi supostamente projetado para detectar agentes do Hamas, mas fontes militares israelenses dizem que muitas vezes marca inocentes para a morte.

Os militares israelenses estão usando inteligência artificial para marcar supostos militantes palestinos para assassinato com pouca supervisão humana ou consideração pelas vítimas civis, informou a revista israelense-palestina +972 na quarta-feira.

O sistema de IA, conhecido como ‘Lavender’, foi concebido para vasculhar os dados pessoais dos dois milhões de residentes de Gaza para elaborar listas dos suspeitos de servir nas alas militares do Hamas e da Jihad Islâmica Palestiniana (PIJ), seis oficiais dos serviços secretos israelitas contado a revista.

A IDF nunca reconheceu publicamente a existência do sistema, mas sabe-se que utiliza software semelhante durante operações anteriores em Gaza.

No início da guerra em curso de Israel contra o Hamas, Lavender marcou 37.000 palestinos como militantes e colocou-os em listas de morte, afirmaram as fontes. Enquanto o pessoal das Forças de Defesa de Israel (IDF) inicialmente se debruçou sobre essas listas e verificou manualmente cada nome, os humanos logo passaram a servir como carimbos para as listas da máquina, disse uma fonte.

“Eu investiria 20 segundos para cada meta nesta fase e faria dezenas delas todos os dias”, disse o oficial. “Eu não tinha nenhum valor agregado como ser humano, além de ser um selo de aprovação. Isso economizou muito tempo.”

Lavender trabalha estudando registros telefônicos, atividades nas redes sociais, fotografias e movimentos de militantes palestinos conhecidos, identificando características comuns e, em seguida, procurando essas características entre a população mais ampla de Gaza. O sistema atribui a cada habitante de Gaza uma pontuação entre 0 e 100, sendo aqueles classificados perto de 100 considerados terroristas e, portanto, alvos legítimos.

No entanto, poucas semanas após o início da guerra, os comandantes das FDI estavam alegadamente a instruir os seus subordinados a flexibilizar estes critérios de selecção e a aprovar ataques a alvos apenas tangencialmente ligados ao Hamas.

“Disseram-nos: agora temos que acabar com o Hamas, não importa o custo. Tudo o que você puder, você bombardeia”, uma fonte lembrou.

Uma vez marcados para assassinato, os alvos de baixo nível seriam eliminados nas suas casas – identificados através de um sistema de IA diferente chamado “Gospel” – com bombas não guiadas, enquanto munições mais precisas seriam usadas contra militantes de alto escalão.

“Às 5 da manhã, (a Força Aérea) vinha e bombardeava todas as casas que havíamos marcado”, disse uma fonte. “Tirámos milhares de pessoas. Não analisamos um por um – colocamos tudo em sistemas automatizados e, assim que um dos (indivíduos marcados) chegou em casa, ele imediatamente se tornou um alvo. Nós bombardeamos ele e sua casa.”

Lavender supostamente classifica os alvos de acordo com sua importância percebida, com uma fonte alegando que nomes de prioridade mais baixa geralmente incluem policiais, funcionários públicos e outros que “ajudam o governo do Hamas, mas eles não colocam realmente em perigo os soldados (israelenses)”.

Quando um suspeito é escolhido e uma ordem de assassinato dada, os comandantes das FDI decidem quantas vítimas civis consideram aceitáveis ​​para eliminar o alvo. Segundo uma fonte, esse número “subiu e desceu” ao longo do tempo, com “20 civis não envolvidos” considerado um sacrifício aceitável no início da guerra, e até 100 considerados aceitáveis ​​em ataques a altos funcionários do Hamas.

“Não se trata apenas de poder matar qualquer pessoa que seja soldado do Hamas, o que é claramente permitido e legítimo em termos do direito internacional”, eles disseram. “Mas eles dizem diretamente: ‘Você tem permissão para matá-los junto com muitos civis”.

De acordo com os últimos números do Ministério da Saúde de Gaza, as forças israelitas mataram mais de 33 mil pessoas em quase seis meses de combates no enclave, a maioria delas mulheres e crianças. Respondendo às afirmações da revista +972, a IDF disse na quarta-feira que “não utiliza um sistema de inteligência artificial que identifique agentes terroristas ou tente prever se uma pessoa é terrorista”, e que isso “rejeita abertamente a alegação relativa a qualquer política para matar dezenas de milhares de pessoas nas suas casas.”

Fuente