
Imagem por Liz Carrigan e Safa, com elementos visuais por Yiorgos Bagakis e La Loma, usado sob permissão.
Esse artigo foi escrito por Safa para a série “Digitized Divides” e originalmente publicado no site tacticaltech.org. Essa versão editada foi republicada pela Global Voices, sob um acordo de parceria.
A tecnologia pode ajudar pessoas, pode machucar pessoas, mas isso não é o tipo de situação que termina apenas em um desses resultados — a tecnologia pode ser usada em benefício de uma pessoa ou grupo e, ao mesmo tempo, causar dano à outra pessoa ou grupo.
Ainda que alguns possam questionar se, quando o assunto é o uso de dados pessoais na implementação de políticas e ações gerais, os benefícios não valem mais do que os malefícios, a comparação de prós e contras por meio de uma abordagem nivelada, binária e bilateral é uma forma equivocada de avaliar a questão de forma crítica. Principalmente quando os malefícios incluem a violência contra os cidadãos. Afinal, o sofrimento humano nunca é justificável, nem há como amenizar as repercussões negativas com boas intenções. O falso equilíbrio tecnológico tenta determinar o “bem” ou os “pontos extras” da tecnologia, o que é uma distração, pois a tecnologia por si só não é boa ou ruim — tem a ver com os humanos por trás dela, os donos e operadores por trás da máquina. Dependendo das intenções e dos objetivos dessas pessoas, a tecnologia pode ser usada com propósitos bem variados.
Lucrativo e letal
Israel utiliza dados coletados dos palestinos para treinar ferramentas automatizadas por IA, inclusive aquelas coproduzidas por firmas internacionais, como é a colaboração entre a empresa israelense Elbit Systems e a Adani Defence and Aerospace, da Índia, implementada em Gaza e na Cisjordânia. As ferramentas de vigilância e os programas de espionagem israelenses, ativados por IA, como Pegasus, Paragon, QuaDream, Candiru e Cellebrite, e os armamentos com IA, incluindo o Smart Shooter e o Lavender, são mundialmente famosos e exportados para muitos países, como o Sudão do Sul e os Estados Unidos.
Os EUA também estão buscando formas de utilizar tecnologias de reconhecimento facial, nacionais e importadas, na fronteira México-EUA, para rastrear a identidade de crianças migrantes, coletando dados para uso futuro. Eileen Guo, do MIT Technology Review, escreveu: “O fato dessa tecnologia ter como alvo pessoas cuja privacidade é menos protegida do que a de cidadãos norte-americanos é apenas parte de um cenário mais amplo, em que se utilizam pessoas de países em desenvolvimento, sejam migrantes em direção à fronteira ou civis em zonas de guerra, para aprimorar novas tecnologias.” Além do reconhecimento facial, os Estados Unidos também coletam amostras de DNA de migrantes para cadastramento em massa junto ao FBI.
Em 2021, Google e Amazon, empresas com sede nos Estados Unidos, assinaram em conjunto um contrato bilionário exclusivo com o governo israelense para desenvolver o “Projeto Nimbus”, criado para aprimorar as tecnologias de reconhecimento facial, categorização automatizada de imagens, rastreamento de objetos e análise de opiniões para uso militar — ação que foi condenada por centenas de funcionários da Google e Amazon, em uma coalizão chamada No Tech for Apartheid (Sem Tecnologia Para o Apartheid).
O exército israelense também mantém laços com a Microsoft para o desenvolvimento de ferramentas de aprendizado de máquina e de armazenamento em nuvem. Esses exemplos servem para mostrar o desequilíbrio de poder nos grandes sistemas de opressão vigentes. Essas ferramentas e laços corporativos não são acessíveis a todo patrocinador em potencial; seria inconcebível que Google, Amazon e Microsoft assinassem os mesmos contratos com, digamos, o Movimento de Resistência Islâmica (Hamas).
Armas “inteligentes”, o combustível do pesadelo
Ao ex-presidente estadunidense Barack Obama é atribuída a normalização de drones armados fora de zonas de conflito. O governo Obama descreveu os ataques por drones como “cirúrgicos” e “precisos”, chegando até mesmo a alegar que o uso de drones armados não causou “nenhuma morte colateral”, o que é, obviamente, falso. Desde que Obama assumiu o governo em 2009, ataques por drones tornaram-se comuns e até aumentaram as ações internacionais dos Estados Unidos (dentro ou fora das zonas de conflito) dos governos posteriores.
Os críticos dizem que o uso de drones em zonas de conflito confere aos governos o poder de “atuarem como juiz, júri e carrasco de quem está a milhares de quilômetros de distância” e que civis “sofrem de forma desproporcional” em “uma iminente ameaça ao direito à vida”. Como exemplo, a BBC descreve drones russos “caçando” civis ucranianos.
Em 2009, o Human Rights Watch informou que Israel usava drones armados em Gaza. Em 2021, Israel iniciou a implantação de “enxames de drones” em Gaza para localizar e monitorar alvos. Em 2022, Omri Dor, comandante da Base Aérea de Palmachin, disse: “Gaza inteira está coberta por veículos aéreos não tripulados que coletam informações 24 horas por dia”. Em Gaza, a tecnologia de drones tem desempenhado um papel importante no aumento de danos e alvos, incluindo drones híbridos como “The Rooster” e “Robodogs” que podem voar, sobrevoar, rolar e escalar territórios desnivelados. Rovers com metralhadora são usados para substituir tropas terrestres.
O Smart Shooter, que usa IA e cujo slogan é “um tiro, um acerto”, vangloria-se de seu alto nível de precisão. O Smart Shooter foi instalado durante a fase piloto, em 2022, no checkpoint de Hebron, onde permanece ativo até hoje. Israel utiliza mísseis “inteligentes”, como o SPICE 2000, que, em outubro de 2024, bombardeou um prédio de apartamentos em Beirute.
O exército israelense é considerado uma das 20 maiores forças militares do mundo. Israel alega que conduz “ataques precisos” sem civis como alvo, porém, o especialista em danos a civis Larry Lewis informou que as estratégias israelenses de mitigação de danos a civis têm sido insuficientes, visto que suas campanhas parecem ser concebidas para criar riscos aos cidadãos. As tecnologias implantadas por Israel aqui mencionadas têm ajudado o seu exército a usar uma força desproporcional para matar palestinos em Gaza. Conforme a descrição do porta-voz das Forças de Defesa de Israel (FDI), “Nosso foco está em causar o máximo de danos”.
Enquanto tecnologias com o uso de IA reduzem o número de homens em campo e, com isso, o número de fatalidades e feridos no exército que as implementa, essas mesmas tecnologias aumentam o número de fatalidades entre seus alvos. O exército israelense afirma que sistemas com IA “minimizaram os danos colaterais, bem como aumentaram a precisão dos processos mediados por humanos”, porém, os resultados registrados contam outra história.
Documentos revelam que pelo menos 13.319 dos palestinos mortos eram crianças e bebês de 0 a 12 anos. As informações da ONU em relação à morte de palestinos são consideradas conservadoras por pesquisadores, cuja estimativa é de que o número real de mortos seja o dobro disso, ou até mesmo mais do que o triplo. Segundo um dos relatórios, “os supostos ‘sistemas inteligentes’ podem determinar o alvo, mas o bombardeio é feito com munição sem inteligência, precisão e direcionamento, pois o exército não quer usar bombas caras, o que um oficial da inteligência descreve como ‘alvos-lixo’”. Ademais, 92% dos domicílios foram destruídos em Gaza, assim como 88% dos prédios escolares, além de 69% das estruturas de Gaza que foram destruídas ou danificadas.
Em 2024, especialistas da ONU condenaram o uso de IA por Israel para cometer crimes contra a humanidade em Gaza. Apesar de toda a informação já mencionada, Israel assinou, no mesmo ano, um tratado mundial sobre IA, desenvolvido pelo Conselho da Europa, para a proteção dos direitos humanos. A utilização de ferramentas com IA para matar um grande número de palestinos, conectadas a tecnologias de uso cotidiano, como o WhatsApp, é vista por alguns como um sinal de alerta sobre o que pode acontecer com eles um dia, mas para outros é um plano de ação para sistematizar de forma eficiente a supremacia e o controle.
Esse artigo argumenta que o problema não é apenas a falta de fiscalização humana dos dados e das ferramentas de IA. Na verdade, a peça-chave para compreender o verdadeiro potencial de danos e abusos está em quem coleta, detém, controla e interpreta os dados; está em quais são seus preconceitos (implícitos ou explícitos). Além disso, manter o foco apenas na tecnologia utilizada no genocídio cometido por Israel em Gaza, ou em qualquer guerra, acarreta o risco de um erro ainda maior: absolver os perpetradores da responsabilidade pelos crimes cometidos por meio de tecnologia. Quando há uma ênfase maior nas ferramentas, fica muito mais fácil redefinir abuso intencional como erro das máquinas.
Ao se observar o uso de tecnologia em geopolítica e conflito armado, o entendimento das estruturas de poder é fundamental para uma visão clara. Buscar o que é “bom” nos usos ultraespecíficos da tecnologia é pouco para compensar o “mal”.
Para os seres humanos cujas vidas se tornaram mais desafiadoras e cujas circunstâncias se tornaram precárias devido à implementação de tecnologias em cenários de domínio, guerra e sistemas supremacistas, pouco se pode racionalizar como benefício. O mesmo pode ser dito de outras entidades que se aproveitam de certas vantagens (geopolíticas, tecnológicas ou outras) para exercer controle sobre outros em posições relativamente mais desvantajosas e vulneráveis. Separar os usos benéficos e maléficos da tecnologia é perder a visão do todo, não apenas de como a tecnologia pode ser usada um dia, mas também de como está sendo, de fato, utilizada no presente.








