quarta-feira, 30 de julho de 2025

Vigilância, dados e algoritmos como a doutrina do século XXI

Em fevereiro deste ano, Aaron Bushnell, militar da força aérea norte-americana, engenheiro e cristão devoto, se suicidou em frente à embaixada de Israel, em Washington DC. O motivo? Antes de se martirizar, pronunciou que não seria mais cúmplice do genocídio do povo Palestino. Bushnell era DevOps e especialista em defesa cibernética no 231º Esquadrão de Suporte, e sua função era a de facilitar, melhorar e otimizar a infraestrutura de desenvolvimento, teste e implantação de software, e seu martírio tem tudo a ver com o Projeto Nimbus, contrato bilionário entre a Google e a Amazon, que têm fornecido infraestrutura de computação em nuvem, IA e serviços diversos de tecnologia ao governo israelense e seus militares.

Hoje, é comum ver em redes sociais a retórica de que o mundo está deixando acontecer o genocídio em Gaza da mesma forma que o mundo também deixou o holocausto acontecer, legando às futuras gerações o mesmo horror e a mesma lição incômoda: você jura que teria agido se estivesse lá, mas está aqui, agora, e escolhe o silêncio. No entanto, acredito que, ainda que deva existir uma responsabilização coletiva da humanidade pela morte de todo um povo, existem limites do que pode ser feito perante a incessante máquina de guerra norte-americana.


Isso, pois, o que acontece em Gaza não parece ser massacre, e sim, ensaio. Um ensaio militar é caracterizado como um processo sistemático de teste, calibração e validação de doutrinas, tecnologias e protocolos de guerra em ambiente real, como previsto pelo TRA (Technology Readiness Assessment) do Departamento de Defesa dos EUA, que recomenda a demonstração de tecnologias emergentes em condições operacionais concretas antes de sua adoção em larga escala. E, atualmente, a Big Tech compõe, no cargo de Tenentes Coronéis, o contingente das Forças Armadas dos Estados Unidos da América.

Os acordos corporativos entre a Big Tech norte-americana e os colonos israelenses não podem ser considerados mero apoio logístico, e, sim, integração orgânica entre tecnologia e estratégia militar. E o povo palestino nunca foi ameaça ao poderio norte americano, ou seus fantoches sionistas. Nunca teve exército, marinha ou força aérea. Nunca dispôs de defesa antiaérea, nem de qualquer infraestrutura militar que pudesse ser comparada ao aparato que o ocupa. Nem mesmo o Hamas, sem capacidade de enfrentar Israel em qualquer nível estratégico real representa uma ameaça concreta perante uma infraestrutura militar altamente datificada, e sim, uma desculpa conveniente, reativada ciclicamente para justificar massacres e manter o regime de apartheid sob a narrativa da “autodefesa”.

E a doutrina que autoriza esse tipo de letalidade automatizada espelha com precisão o que o Departamento de Defesa dos EUA define no TRA: tecnologias emergentes são consideradas prontas para implantação militar após demonstração bem-sucedida em ambiente real. Gaza, portanto, seria o campo de validação dessa doutrina: um ambiente de teste em tempo real onde a guerra não apenas destrói, mas também coleta dados, otimiza modelos e treina máquinas para a próxima operação.

O mundo não estaria deixando o genocídio em Gaza acontecer. Ele está sendo obrigado a assistir, horrorizado e intimidado, o recado que a Big Tech agora militarizada, em parceria com o governo de Israel estão enviando ao planeta: se podemos fazer isso com os Palestinos, podemos fazer com qualquer um. E cada stories, cada TikTok, cada vídeo de uma família soterrada ou de um ato de resistência esmagado em Gaza compõe o teatro cognitivo da guerra híbrida. São demonstrações de força projetadas globalmente, avisos geopolíticos embutidos no fluxo banal das redes, ensaios gerais de um futuro onde Soberania, Direito Internacional e vidas civis se tornam irrelevantes diante da supremacia militar Meta-Trumpista.

O que se desenha, portanto, é um avanço das guerras por procuração, uma proxy war não mais travada entre exércitos convencionais financiados por potências rivais, mas entre infraestruturas tecnológicas ocidentais e populações inteiras transformadas em laboratório. Gaza é apenas o primeiro campo de validação desse modelo. E tudo indica que esse padrão, onde o território ocupado serve de campo de testes para tecnologias militares e doutrinas geopolíticas de controle, será replicado em outras regiões do Sul Global.

Pela primeira vez, uma guerra é conduzida com uso sistemático e operacional de Inteligência Artificial para seleção de alvos humanos. Ferramentas como Lavender, que classificou até 37 mil pessoas com base em padrões digitais de comportamento, e The Gospel, também conhecido como Habsora, sistema automatizado de recomendação de alvos a partir de dados geoespaciais e vigilância aérea, foram empregados em larga escala pelas Forças de Defesa de Israel durante os bombardeios em Gaza. Esses sistemas operam com grau de autonomia preocupante, sugerindo nomes e locais para eliminação com base em correlações algorítmicas, e não necessariamente em provas materiais.

Começamos pela Inteligência Artificial, para escolher quem vai morrer. Sistemas como o Lavender são alimentados com grandes quantidades de dados: com quem você fala, onde você anda, com quem você mora, e, se você parecer suspeito, entra numa lista de possíveis alvos. A decisão de matar depende não de provas, mas de padrões de comportamento. Em parceria, The Gospel analisa imagens de satélite, drones e câmeras para detectar prédios, ruas e casas onde os classificadores de dados podem acreditar ter militantes. Então, a máquina sugere quais locais devem ser bombardeados.

Para organizar as operações militares, os serviços de Computação em Nuvem fornecem o que é essencial para essa operação funcionar: servidores, processamento e armazenamento de dados. Tudo acontece em tempo real e a guerra passa a ser coordenada via painel digital, acessado por militares como um sistema de gestão online. Junto com a Palantir, tendências e ameaças baseadas em dados agregados, como movimentações em bairros, padrões telefônicos e até mesmo a reação da Opinião Pública internacional são analisados e antecipados. O Projeto Nimbus, contrato de aproximadamente US$ 1,2 bilhão firmado entre Israel, Google Cloud, e a Amazon Web Services (AWS) em 2021, implantou centros de dados locais em Israel. Ele fornece à máquina de guerra acesso a ferramentas de IA como detecção facial, categorização automática de imagens, rastreamento de objetos e análise de sentimentos, tecnologias que já haviam sido usadas para vigilância de fronteiras nos EUA e agora foram reconfiguradas para operar sobre a população de Gaza.

Já a Palantir, por meio de serviços de análise avançada, firmou parceria estratégica com o Ministério da Defesa de Israel para fornecer ferramentas de inteligência em larga escala. Os sistemas da Palantir passaram a ser utilizados diretamente nas operações em Gaza, inclusive propondo planos de batalha, integrando vigilância, análise preditiva e apoio à decisão letal. Finalmente, e no nível mais tático, para esvaziar o esforço do soldado, ferramentas como a SMASH Handheld guiam o olhar e o gatilho no alvo palestino para que o tiro só seja disparado no momento certo, tornando o ato de matar tão automático quando um videogame com sticky targeting ativado. 

Nada disso é apenas sobre Gaza. O que se ensaia ali não se restringe ao território sitiado. O que está sendo desenvolvido, testado e refinado é uma doutrina de guerra híbrida total, onde operações cinéticas, ou seja, do corpo e do território e da explosão, bem como digitais, informacionais e políticas, funcionam em coesão orientada por dados. A guerra já não depende apenas de exércitos ou fronteiras: ela opera em servidores, em redes sociais, e em nossos feeds.

O objetivo não é apenas matar. É controlar o que pode ser visto, sentido e pensado. O bombardeio físico vem acompanhado da saturação simbólica e exaustão mental: vídeos, relatórios, imagens de corpos, testemunhos ao vivo, todos transmitidos em tempo real, emoldurados por narrativas que os algoritmos priorizam ou silenciam. Essa lógica é o coração da guerra cognitiva: moldar a percepção global, infiltrar a dúvida, desmoralizar a solidariedade e induzir a normalização do horror.

Como ensaio, o genocídio palestino em Gaza é também aviso. E, perante elementos comerciais, como as ameaças de tarifaços, de lawfare, como o recente ataque à LGPD no Brasil, vemos essa doutrina ser exportada e adaptada às particularidades do Sul Global. Onde não há o bombardeiro, há vigilância dos dados por por oligopólios norte-americanos. Onde não há SMASH Handheld, há desinformação calibrada. Onde não há exércitos, há tribunais capturados e lobby contra a Soberania nacional.

O que estão testando em Gaza – IA armada, targeting automatizado, integração de Computação em Nuvem – é vanguarda de uma arquitetura de controle exercido através da interoperabilidade entre infraestrutura digital e poderio bélico. O pai da teoria militar ocidental, Clausewitz, uma vez disse que a guerra nada mais é senão a continuação da política por meios violentos, e o Meta-Trumpismo continua sua política com algoritmo e sangue.

Nossos feeds pertencem à Big Tech, hoje à serviço da máquina de Guerra Norte-Americana. No Brasil, a infraestrutura tecnológica é cliente dos oligopólios tecnológicos da Big Tech. Um soldado americano se martirizou pelo fim do massacre e do horror, como corpo imunológico incapaz de combater a doença. Não é à toa que o mundo é forçado a assistir, pois os meios de resistência não nos pertencem.

A arquitetura da dominação é total: ela habita os contratos que firmamos sem ler, os termos de uso que naturalizamos, os dispositivos que carregamos no bolso, as plataformas que moldam o que pensamos. A guerra é transmitida em tempo real não para ser impedida, mas para ser absorvida, metabolizada como espetáculo, tragédia ou “crise humanitária”.

Que ninguém se engane: o que está em jogo não é apenas a Palestina, mas a possibilidade de qualquer povo, em qualquer lugar do mundo, se opor à maquinaria imperial sem ser esmagado por ela. Gaza não é exceção. Gaza é o modelo.

O professor 4.0

Na transição do Paleolítico para o Neolítico, as comunidades humanas abandonaram o nomadismo, fixaram-se na terra e protagonizaram a primeira grande revolução tecnológica: a revolução agrícola. Pelo menos desde então, professores, mestres e mentores partilharam saberes, técnicas e visões do mundo com os seus discípulos mais novos e cada nova geração ampliou esse legado, refinando-o, questionando-o, criando e ampliando novos horizontes de saber. Foi esse ciclo (transmissão de conhecimento, aperfeiçoamento, inovação) que, desde então até aos nossos dias, impulsionou a humanidade de caçadores-recoletores à era da inteligência artificial em que vivemos. Tudo isso aconteceu em apenas 12 mil anos.

Hoje, porém, surge uma interrogação inevitável: que será deste modelo milenar de ensino quando qualquer pessoa, em qualquer lugar, pode aceder instantaneamente a vastas quantidades de informação, conversando com sistemas de inteligência artificial (IA) que emulam o saber humano?

De acordo com Seldon e colegas (The Fourth Education Revolution, University of Buckingham Press, 2018), vivemos agora a quarta revolução educacional: aquela em que a transmissão de conhecimentos deixa de ser monopólio exclusivo dos seres humanos, mas passa a ter a IA como parceira. Desta forma, assistimos, e vivemos, a uma rutura histórica naquilo a que respeita o milenar processo de educação, ensino, formação e capacitação.


Pela primeira vez, os “mestres”, os professores, deixaram de ser os únicos mediadores entre o saber e os “aprendizes”, os estudantes. Se a Internet democratizou o acesso ao conhecimento nas últimas três décadas, no presente a IA passou a converter esse conhecimento em explicações personalizadas, diálogos pedagógicos e sugestões para aprendizagem contínua. Em teoria, todos os estudantes dispõem agora de um tutor, não humano, totalmente disponível 24 horas por dia.

Dessa forma, uma das grandes questões do presente naquilo a que respeita o processo de ensino é: e agora? A resposta está longe de ser evidente, mas de acordo com os mesmos autores, esta revolução não elimina a necessidade do professor humano: apenas redefine o seu papel.

Num mundo em que a informação é ubíqua e gratuita, formar significa cultivar pensamento crítico, discernimento e vontade de evoluir. Por isso, a partir de agora, ao professor não basta o papel de expor informação: o seu papel principal passa a ser o de ajudar a interpretar, contextualizar e avaliar de forma justa. Daqui em diante, a literacia que importa, aquela onde o professor continua a ser peça fundamental, é no ensino da literacia crítica — saber que perguntas fazer, como validar fontes, como identificar erros e resistir à manipulação de informação.


Mas mais ainda: o processo de aprendizagem não se reduz a conteúdos. Inclui práticas, valores e convivência. O professor continua insubstituível como modelo humano: quem inspira, escuta, desafia. A IA pode resolver uma equação ou resumir um texto, mas não substitui a empatia, a ética, o estímulo à curiosidade, ou o modelo inspiracional que sempre os melhores professores foram para os seus estudantes.

Por isso o acesso livre à informação e à IA pode tornar-se aliado pedagógico poderoso, se integrado numa redefinição daquilo que é o papel do professor no atual contexto tecnológico. A IA personaliza ritmos de aprendizagem, acompanha quem tem dificuldades, sugere novas abordagens. Ao professor caberá, com esta nova ferramenta, reconfigurar o espaço educativo: mais do que um simples orador num palco, torna-se mentor, facilitador, curador de percursos e modelo inspiracional.

Estamos, pois, diante de uma encruzilhada. Se nos limitarmos a reproduzir modelos do passado, a IA tornará obsoleto o ensino tradicional. Mas, se conseguirmos reinventar o ato de ensinar, o futuro do ensino poderá ser mais inclusivo, mais abrangente e mais eficiente. Afinal, ensinar nunca foi apenas transmitir: na verdade sempre foi, sobretudo, inspirar pessoas abrindo-lhes novos caminhos.
Rogério Colaço