segunda-feira, 26 de maio de 2025

Quem decide o que é verdade na era da Inteligência Artificial?

Sou um verdadeiro entusiasta da Inteligência Artificial. Fascina-me a sua capacidade de nos fazer avançar: otimizar processos, facilitar decisões, personalizar experiências, detetar padrões que escapam ao olhar humano. Acredito genuinamente no poder transformador da IA e em como ela pode ser uma aliada preciosa ao serviço da criatividade, da saúde, da educação, da produtividade e, claro, da comunicação.

Mas também acredito que não basta deslumbrar-nos com o que a tecnologia pode fazer. Temos de questionar o que ela está a fazer. E, sobretudo, o que estamos a permitir que ela decida por nós. E uma das áreas onde mais me inquieta é esta: a liberdade de expressão, condicionada por moderação algorítmica.

Hoje, o que aparece no nosso feed não é decidido por nós, é curado, priorizado e filtrado por algoritmos. Não é apenas uma questão de preferência: é uma decisão automática sobre o que é “relevante”, “seguro” ou “aceitável”. O problema? Essa decisão é feita sem contexto, sem explicação, sem recurso.

A intenção pode até ser positiva – proteger-nos de conteúdos tóxicos, de fake news, de discursos perigosos. Mas a prática mostra que os efeitos secundários são cada vez mais alarmantes.

Vamos começar pelo lado bom. Em 2021, o Facebook (agora Meta) usou IA para detetar automaticamente redes de desinformação coordenada sobre vacinas. Conseguiu remover milhares de contas falsas em tempo real e impedir que conteúdos perigosos se tornassem virais. O mesmo aconteceu no YouTube, que desmonetizou canais que promoviam teorias da conspiração sobre Covid-19, com base em deteções automáticas.

Nestes casos, a IA ajudou a conter desinformação que podia ter impacto direto na saúde pública. Foi rápida, eficaz, e provavelmente salvou vidas. Outro bom exemplo é o da Reuters, que utiliza algoritmos de verificação para validar automaticamente milhares de fontes antes de as integrar nas suas notícias, acelerando o processo de apuramento jornalístico sem comprometer o rigor. Mas… e aqui está o “mas”, nem sempre funciona assim.

Durante a guerra na Ucrânia, vários jornalistas e cidadãos partilharam vídeos e fotos em tempo real nas redes sociais. Algumas dessas imagens – legítimas, reais, jornalísticas – foram automaticamente removidas por “conteúdo gráfico”, apesar de estarem a documentar crimes de guerra. O algoritmo não percebeu o contexto. Apenas viu “sangue”. Resultado? Informação valiosa foi apagada num momento em que o mundo precisava de a ver.

Mais grave ainda: em 2023, o jornal El Confidencial viu uma investigação sobre corrupção política ser bloqueada no Facebook por “violação das diretrizes comunitárias”, sem qualquer explicação clara. Só dias depois, e após protesto público, foi restaurada. Mas o dano estava feito, o momento da notícia passou, e com ele a sua força de impacto.

Quantas mais notícias estão a ser “apagadas” sem que ninguém repare?

Não podemos ignorar um dos paradoxos mais perigosos disto tudo: os mesmos algoritmos que moderam também amplificam. E amplificam o quê? O conteúdo que gera mais reações. E o que gera mais reações? O sensacionalismo, a polarização, a raiva, o choque.

O Twitter/X, por exemplo, tem sido alvo de críticas por permitir que conteúdos falsos e tóxicos se tornem virais, enquanto vozes credíveis ficam invisíveis. O algoritmo privilegia o que provoca, não o que informa. E isto tem um custo real: a erosão da confiança no jornalismo, na ciência e na própria noção de verdade.

Neste ponto, a pergunta torna-se inevitável: quem decide o que é verdade ou mentira? E com que critérios?

É a Meta? A Google? A OpenAI? Os engenheiros que criam os modelos? Os governos que pressionam as plataformas? Os anunciantes?

O mais assustador nisto tudo é que a maioria de nós não sabe e nem sequer tem como saber.

A verdade tornou-se uma variável algorítmica, opaca, condicionada por métricas de engagement, por diretrizes internas e por decisões automáticas que não passam por qualquer debate democrático.

Não estou a dizer que tudo deve ser permitido. Não defendo a anarquia digital. Há conteúdos que devem ser removidos: discurso de ódio, exploração infantil, apelos à violência. Mas isso não pode ser feito cegamente por máquinas, sem supervisão humana, sem recurso e sem respeito por diferentes contextos culturais, sociais e até jornalísticos.

É urgente tornar os critérios dos algoritmos transparentes e auditáveis, criar mecanismos claros e eficazes de apelo e correção de erro, garantir que o contexto é considerado antes de qualquer remoção. É urgente proteger o jornalismo e a informação factual de remoções automáticas injustificadas.

Enquanto sociedade, não podemos continuar a aceitar que a definição daquilo que pode ou não ser dito esteja nas mãos de sistemas automáticos que ninguém verdadeiramente controla.

Num mundo onde a IA é cada vez mais usada para mediar a nossa relação com a informação, temos de garantir que a tecnologia serve a liberdade e não a substitui.

A liberdade de expressão não pode ser um dano colateral da moderação automática. Muito menos quando está em causa a verdade, a pluralidade de pensamento e a integridade do debate público.

Como fã confesso da IA, digo-o com convicção: não é por podermos automatizar decisões que devemos abdicar de pensar por nós.

Porque se deixarmos que uma máquina decida tudo por nós, acabamos por perder aquilo que nos torna verdadeiramente humanos: a capacidade de escolher, de questionar e de discordar.

Nenhum comentário:

Postar um comentário