segunda-feira, 13 de janeiro de 2025

Mudanças na Meta irão instaurar uma tirania da maioria


Imagine um hospital, reconhecido por tratar os casos mais complexos de doenças raras. Até ontem, as decisões sobre diagnósticos e tratamentos eram tomadas por uma equipe de especialistas — médicos, cientistas e profissionais dedicados a estudar cada caso com precisão. Porém, o CEO do hospital decide inovar e substituir a sua equipe técnica por um palanque, onde qualquer visitante pode opinar quais procedimentos adotar com os pacientes. Não importa o nível de conhecimento, experiência ou responsabilidade, cada opinião conta igualmente para definir o que será feito.


A mudança é apresentada como um marco da democracia e inclusão. Afinal, quem melhor para decidir do que “o povo” sobre o que é científico e o que não é? Porém, em menos de um plantão o caos se instala. Pacientes passam a ser tratados com métodos duvidosos e grupos organizados começam a influenciar decisões, combinando de subir no palanque para promover ideias milagrosas e descartar tratamentos comprovados. Os resultados? Diagnósticos errados, tratamentos inadequados e vidas em risco, tudo sob a justificativa de “mais espaço para o debate”.

Apesar de absurdo, é exatamente com a frase de “mais espaço para o debate” que a Meta, companhia de Mark Zuckerberg e controladora do Facebook, WhatsApp, Instagram e Threads, decidiu substituir as agências de checagens especializadas por um mecanismo de “Notas da Comunidade”, onde os próprios usuários decidem o que é verdadeiro ou falso, votando em uma enquete sobre a relevância e veracidade das informações. Agora pense naquele seu conhecido ou parente que discorda totalmente de você, você realmente acha que ela vai deixar a emoção e a polarização de lado para simplesmente dizer que a sua fala é verdadeira e a dele é falsa? E você? Conseguiria deixar a sua visão de mundo de lado para validar friamente a fala de um político que você discorda?

Quando milhões de pessoas, muitas sem qualquer preparo técnico, passam a decidir sobre temas complexos como ciência ou medicina, por exemplo, as decisões deixam de ser guiadas pela busca pela verdade e passam a refletir o que é mais popular ou conveniente. Pior ainda, grupos organizados podem manipular essas Notas para reforçar narrativas falsas, mobilizar um grupo de 10, 20, ou 30 pessoas para moldar a opinião pública ou deslegitimar informações confiáveis.

Em alguns casos, teorias da conspiração e desinformações prometem curas milagrosas, como no caso do uso do dióxido de cloro (ClO2), o qual propõe suposta “cura do autismo”, uma desinformação recorrente e nociva à sociedade e que já resultou em danos letais. Essa mesma mentira, por exemplo, poderia receber um selo de “verdadeira” a partir de uma Nota da Comunidade que contasse com votos suficientes de usuários bancados pelo lobby do dióxido de cloro, ou que fossem parte de um grupo de venda clandestina de produtos químicos no Telegram.

Se seria impensável confiar a vida de pacientes a decisões tomadas sem critério em um hospital, então por que aceitar que a integridade das informações que consumimos seja entregue a um sistema tão vulnerável de enquete pública? Essa mudança, apresentada como progresso, é, na verdade, um convite para uma tirania da maioria, onde o caos e a mentira ganham pelo volume.

Após a aquisição do atual X (antigo Twitter) por Elon Musk, a plataforma implementou, em maio de 2023, as Notas da Comunidade, permitindo que usuários adicionassem contextos a tweets potencialmente enganosos. No entanto, o sistema mostrou-se suscetível à captura por grupos com agendas específicas. Uma investigação revelou que as Notas da Comunidade foram manipuladas por grupos organizados, expondo usuários ao ódio e permitindo o uso político da ferramenta. A falta de transparência sobre quem são os usuários envolvidos no processo de avaliação e a ausência de critérios claros de admissão no programa contribuíram para essa vulnerabilidade.

A implementação das Notas da Comunidade também gerou controvérsia entre perfis públicos e meios de comunicação, os quais frequentemente tiveram suas publicações corrigidas erroneamente por usuários anônimos. Além disso, durante as eleições presidenciais nos Estados Unidos, diversas postagens contendo informações verificadas sobre procedimentos de votação foram alvo de Notas da Comunidade que propagavam teorias da conspiração sobre fraude eleitoral. Essas notas, baseadas em informações falsas ou enganosas, criaram confusão entre os eleitores e minaram a confiança no processo democrático.

E ainda, um estudo revelou que aproximadamente 96% de todas as notas de checagem de fatos contribuídas pela comunidade não foram exibidas ao público por não atenderem aos requisitos de consenso definidos pelo algoritmo, resultando em mais de 30.000 notas não exibidas. Em outras palavras, quem decide qual Nota vale é a própria plataforma, com base em critérios próprios. Um prato cheio para pautar a opinião de acordo com o que quiser. Tais notas omitidas são selecionadas pelo próprio algoritmo do X, o qual utiliza critérios opacos para decidir quais notas são relevantes ou adequadas para publicação. A falta de transparência sobre os parâmetros de elegibilidade das notas gera questionamentos sobre a imparcialidade do sistema e abre margem para potenciais vieses, já que os usuários não têm como verificar ou contestar a lógica por trás das decisões algorítmicas. Esse processo contraria a promessa de um sistema mais democrático e acessível, enfraquecendo a confiança dos próprios usuários na ferramenta.

Em outra frente, um levantamento do MediaWise descobriu que menos de 10% das notas criadas pelos usuários acabaram publicadas em postagens ofensivas. Os números são ainda menores para tópicos sensíveis como imigração e aborto, pois o algoritmo escolhe sem regras explícitas quando permitir ou não as Notas da Comunidade. Pesquisadores descobriram que, mesmo que as Notas da Comunidade viessem a ser democráticas em sua distribuição (o que não são), a maioria das postagens no X recebe a maior parte do tráfego nas primeiras horas, mas pode levar dias para que uma nota do Notas do Comunidade seja aprovada e visível para todos. Em outras palavras, sua resposta não vem a tempo de enfrentar desinformações nocivas às pessoas, especialmente envolvendo saúde pública e perseguições virtuais.

Não bastasse implementar as notas da comunidade, a Meta também anunciou que passará a permitir conteúdos antes proibidos por serem considerados discriminatórios ou potencialmente nocivos. A empresa justificou a decisão sob o argumento de que tais mudanças promovem “mais espaço para o debate” em questões culturais e políticas. Entre as alterações, está a permissão de postagens que classifiquem gays e trans como “doentes mentais”. Além disso, usuários agora poderão defender sem restrição da plataforma, por exemplo, que mulheres não são aptas para alguma profissão intelectual, só por serem mulheres, ou que pessoas trans não devem ser professoras, desde que baseiem essas opiniões em crenças religiosas. A Meta também ampliou o escopo para discussões sobre exclusões baseadas em gênero em contextos como banheiros, escolas e papeis no exército, alegando que essas questões fazem parte de debates sociais amplos.

Essa decisão não apenas contraria avanços históricos na proteção dos direitos humanos, mas também desafia marcos legais de países como o Brasil, onde o Supremo Tribunal Federal (STF) equiparou a homotransfobia ao crime de racismo. Ao ignorar essas legislações, a Meta demonstra desprezo pela dignidade das pessoas afetadas e pela soberania das nações em que opera. A justificativa de que tais discursos podem ser permitidos por se basearem em crenças religiosas apenas transforma dogmas em ferramentas de discriminação. Argumentos como esses, ao invés de enriquecer o debate público, promovem a segregação e reforçam estruturas de poder.

O impacto dessas mudanças transcende o plano digital, alcançando as vidas reais das pessoas que são alvo desses discursos. Permitir que gays, trans e mulheres sejam tratados como sub-humanos inferiores em discussões públicas normaliza práticas de discriminação em todos os níveis da sociedade. Por fim, o argumento de “liberdade de expressão”, frequentemente usado para justificar essas mudanças, revela-se falacioso. Seu uso para justificar ataques e desumanização de minorias viola os princípios de igualdade, dignidade e da própria liberdade de expressão daqueles que nada mais estão fazendo do que expressar a sua identidade. Sob a lógica de que todos os discursos devem ser permitidos, a Meta negligencia o fato de que certos conteúdos possuem o potencial de incitar violência e discriminação, perpetuando violências reais fora das redes.

Por fim, se já haviam banalizado o conceito de “liberdade de expressão” para distorcer a realidade e lucrar com mentiras, agora tentam banalizar até mesmo o conceito de “democracia” para instaurar uma tirania da maioria, reduzindo fatos e conhecimentos científicos a enquetes de um tribunal de anônimos na internet. Ao retirar as agências de checagem de fatos e o jornalismo comprometido dessa atuação especializada, fica no lugar um mecanismo muito menos democrático, em que usuários serão selecionados por um algoritmo oculto para reproduzir a opinião que a própria plataforma quiser dar destaque. Pode parecer The Black Mirror, mas só nos resta refletir: estaremos preparados para uma “IA-Cracia”, onde meia dúzia de big techs decide, com seus algoritmos enviesados, o que é verdade e o que não é?

Nenhum comentário:

Postar um comentário