segunda-feira, 4 de novembro de 2024

A 'máquina de preconceitos': Google diz o que você quer ouvir

"Estamos à mercê do Google." Eleitores indecisos nos EUA que recorrem ao Google podem ter visões de mundo dramaticamente diferentes – mesmo quando estão fazendo exatamente a mesma pergunta.

Digite "Kamala Harris é uma boa candidata democrata", e o Google pinta um quadro otimista. Os resultados da pesquisa mudam constantemente, mas na semana passada, o primeiro link foi uma pesquisa do Pew Research Center mostrando que "Harris energiza os democratas". O próximo é um artigo da Associated Press intitulado "A maioria dos democratas acha que Kamala Harris seria uma boa presidente", e os links seguintes eram semelhantes. Mas se você tem ouvido coisas negativas sobre Harris, você pode perguntar se ela é uma "má" candidata democrata. Fundamentalmente, essa é uma pergunta idêntica, mas os resultados do Google são muito mais pessimistas.

"Tem sido fácil esquecer o quão ruim Kamala Harris é", disse um artigo da Reason Magazine no primeiro lugar. Então o US News & World Report ofereceu uma interpretação positiva sobre como Harris não é "a pior coisa que poderia acontecer à América", mas os resultados a seguir são todos críticos. Um artigo da Al Jazeera explicou "Por que não estou votando em Kamala Harris", seguido por um tópico interminável no Reddit sobre por que ela não é boa.


Você pode ver a mesma dicotomia com perguntas sobre Donald Trump, teorias da conspiração, debates políticos contenciosos e até mesmo informações médicas. Alguns especialistas dizem que o Google está apenas repetindo suas próprias crenças de volta para você. Pode estar piorando seus próprios preconceitos e aprofundando as divisões sociais ao longo do caminho.

"Estamos à mercê do Google no que diz respeito às informações que conseguimos encontrar", diz Varol Kayhan, professor associado de sistemas de informação na Universidade do Sul da Flórida, nos EUA.

"A missão do Google é dar às pessoas as informações que elas querem, mas às vezes as informações que as pessoas acham que querem não são as mais úteis", diz Sarah Presch, diretora de marketing digital da Dragon Metrics , uma plataforma que ajuda empresas a ajustar seus sites para melhor reconhecimento do Google usando métodos conhecidos como " otimização de mecanismos de busca " ou SEO.

É um trabalho que exige uma análise meticulosa dos resultados do Google e, alguns anos atrás, Presch percebeu um problema. "Comecei a observar como o Google lida com tópicos em que há debates acalorados", diz ela. "Em muitos casos, os resultados foram chocantes."

Alguns dos exemplos mais gritantes analisaram como o Google trata certas questões de saúde. O Google frequentemente extrai informações da web e as mostra no topo dos resultados para fornecer uma resposta rápida, que ele chama de Featured Snippet . Presch pesquisou por "link entre café e hipertensão". O Featured Snippet citou um artigo da Mayo Clinic, destacando as palavras "A cafeína pode causar um aumento curto, mas dramático, na sua pressão arterial". Mas quando ela pesquisou "nenhuma ligação entre café e hipertensão", o Featured Snippet citou uma linha contraditória do mesmo artigo da Mayo Clinic: "A cafeína não tem um efeito de longo prazo na pressão arterial e não está associada a um risco maior de pressão alta".

A mesma coisa aconteceu quando Presch pesquisou por "o TDAH é causado pelo açúcar" e "o TDAH não é causado pelo açúcar". O Google apresentou Featured Snippets que argumentam que apoiam ambos os lados da questão, novamente retirados do mesmo artigo. (Na realidade, há pouca evidência de que o açúcar afeta os sintomas do TDAH, e ele certamente não causa o transtorno.)

Ela encontrou o mesmo problema com questões políticas. Pergunte "o sistema tributário britânico é justo", e o Google cita uma citação do deputado conservador Nigel Huddleston, argumentando que de fato é. Pergunte "o sistema tributário britânico é injusto", e o Featured Snippet do Google explica como os impostos do Reino Unido beneficiam os ricos e promovem a desigualdade.

"O que o Google fez foi retirar pedaços do texto com base no que as pessoas estão procurando e alimentá-las com o que elas querem ler", diz Presch. "É uma grande máquina de preconceitos."

Por sua vez, o Google diz que fornece aos usuários resultados imparciais que simplesmente combinam as pessoas com o tipo de informação que elas estão procurando. "Como um mecanismo de busca, o Google visa apresentar resultados de alta qualidade que sejam relevantes para a consulta que você inseriu", diz um porta-voz do Google. "Nós fornecemos acesso aberto a uma variedade de pontos de vista de toda a web, e damos às pessoas ferramentas úteis para avaliar as informações e fontes que elas encontram."

Segundo uma estimativa, o Google lida com cerca de 6,3 milhões de consultas a cada segundo, totalizando mais de nove bilhões de pesquisas por dia. A grande maioria do tráfego da internet começa com uma Pesquisa do Google, e as pessoas raramente clicam em qualquer coisa além dos cinco primeiros links — muito menos se aventuram na segunda página. Um estudo que rastreou os movimentos oculares dos usuários descobriu que as pessoas geralmente nem olham para nada além dos primeiros resultados. O sistema que ordena os links na Pesquisa do Google tem um poder colossal sobre nossa experiência do mundo.

De acordo com o Google, a empresa está lidando bem com essa responsabilidade. "Pesquisas acadêmicas independentes refutaram a ideia de que o Google Search está empurrando as pessoas para bolhas de filtro", diz o porta-voz.

A questão das chamadas "bolhas de filtro" e "câmaras de eco" na internet é um tema quente, embora algumas pesquisas tenham questionado se os efeitos das câmaras de eco online foram exagerados .

Mas Kayhan – que estudou como os mecanismos de busca afetam o viés de confirmação , o impulso natural de buscar informações que confirmem suas crenças – diz que não há dúvidas de que nossas crenças e até mesmo nossas próprias identidades políticas são influenciadas pelos sistemas que controlam o que vemos online. "Somos dramaticamente influenciados por como recebemos informações", ele diz.

O porta-voz do Google diz que um estudo de 2023 concluiu que a exposição das pessoas a notícias partidárias se deve mais ao fato de que é nisso que elas clicam, do que ao Google fornecer notícias partidárias em primeiro lugar. Em certo sentido, é assim que o viés de confirmação funciona: as pessoas procuram evidências que apoiam suas opiniões e ignoram evidências que as desafiam. Mas mesmo naquele estudo, os pesquisadores disseram que suas descobertas não implicam que os algoritmos do Google não sejam problemáticos. "Em alguns casos, nossos participantes foram expostos a notícias altamente partidárias e não confiáveis ​​no Google Search", disseram os pesquisadores, "e trabalhos anteriores sugerem que mesmo um número limitado dessas exposições pode ter impactos negativos substanciais".

De qualquer forma, você pode escolher se envolver com informações que o mantêm preso em sua bolha de filtro, "mas há apenas um certo buquê de mensagens que são colocadas na sua frente para você escolher em primeiro lugar", diz Silvia Knobloch-Westerwick, professora de comunicação mediada na Technische Universität Berlin, na Alemanha. "Os algoritmos desempenham um papel substancial neste problema."

O Google não respondeu à pergunta da BBC sobre se há uma pessoa ou uma equipe especificamente encarregada de abordar o problema do viés de confirmação.

"Na minha opinião, todo esse problema decorre das limitações técnicas dos mecanismos de busca e do fato de que as pessoas não entendem quais são essas limitações", diz Mark Williams-Cook, fundador do AlsoAsked , outra ferramenta de otimização de mecanismos de busca que analisa os resultados do Google.

Um caso antitruste recente dos EUA contra o Google revelou documentos internos da empresa onde funcionários discutem algumas das técnicas que o mecanismo de busca usa para responder suas perguntas. "Nós não entendemos documentos – nós os fingimos", escreveu um engenheiro em um slideshow usado durante uma apresentação de 2016 na empresa. "Um bilhão de vezes por dia, as pessoas nos pedem para encontrar documentos relevantes para uma consulta... Além de algumas coisas básicas, dificilmente olhamos para documentos. Olhamos para pessoas. Se um documento recebe uma reação positiva, achamos que é bom. Se a reação é negativa, provavelmente é ruim. Simplificando grosseiramente, esta é a fonte da mágica do Google."

Em outras palavras, o Google observa para ver no que as pessoas clicam quando inserem um determinado termo de busca. Quando as pessoas parecem satisfeitas com um certo tipo de informação, é mais provável que o Google promova esse tipo de resultado de busca para consultas semelhantes no futuro.

Um porta-voz do Google diz que esses documentos estão desatualizados e que o sistema usado para decifrar consultas e páginas da web se tornou muito mais sofisticado.

"Essa apresentação é de 2016, então você tem que encarar com uma pitada de sal, mas o conceito subjacente ainda é verdadeiro. O Google cria modelos para tentar prever o que as pessoas gostam, mas o problema é que isso cria um tipo de loop de feedback", diz Williams-Cook. Se o viés de confirmação empurra as pessoas a clicar em links que reforçam suas crenças, ele pode ensinar o Google a mostrar às pessoas links que levam ao viés de confirmação. "É como dizer que você vai deixar seu filho escolher sua dieta com base no que ele gosta. Ele vai acabar comendo junk food", diz ele.

Williams-Cook também se preocupa que as pessoas podem não entender que quando você pergunta algo como "Trump é um bom candidato", o Google pode não necessariamente interpretar isso como uma pergunta. Em vez disso, ele geralmente apenas puxa documentos relacionados a palavras-chave como "Trump" e "bom candidato".

Ele diz que isso dá às pessoas expectativas equivocadas sobre o que elas encontrarão quando fizerem uma pesquisa, e isso pode levá-las a interpretar mal o que os resultados da pesquisa significam.

Se os usuários fossem mais claros sobre as deficiências do mecanismo de busca, Williams-Cook acredita que eles poderiam pensar sobre o conteúdo que veem de forma mais crítica. "O Google deveria fazer mais para informar o público sobre como a Busca realmente funciona. Mas eu não acho que eles farão, porque para fazer isso você tem que admitir algumas imperfeições sobre o que não está funcionando", ele diz. ( Para saber mais sobre o funcionamento interno dos mecanismos de busca, leia este artigo sobre como as atualizações do algoritmo do Google estão mudando a internet).

O Google é aberto sobre o fato de que a Busca nunca é um problema resolvido, diz um porta-voz da empresa, e a empresa trabalha incansavelmente para lidar com os profundos desafios técnicos no campo conforme eles surgem. O Google também aponta para recursos que oferece que ajudam os usuários a avaliar informações, como a ferramenta " Sobre este resultado " e avisos que permitem que os usuários saibam quando os resultados sobre um tópico relacionado a notícias de última hora estão mudando rapidamente.

O porta-voz do Google diz que é fácil encontrar resultados que refletem uma variedade de pontos de vista de fontes por toda a web, se é isso que você quer fazer. Eles argumentam que isso é verdade mesmo com alguns dos exemplos que Presch apontou. Role mais para baixo com perguntas como "Kamala Harris é uma boa candidata democrata" e você encontrará links que a criticam. O mesmo vale para "o sistema tributário britânico é justo" - você encontrará resultados de pesquisa que dizem que não é. Com a consulta "ligação entre café e hipertensão", o porta-voz do Google diz que a questão é complicada, mas o mecanismo de busca traz à tona fontes confiáveis ​​que se aprofundam na nuance.

Claro, isso depende de as pessoas explorarem além dos primeiros resultados – quanto mais abaixo na página de resultados você for, menor a probabilidade de os usuários se envolverem com os links. No caso da hipertensão relacionada ao café e do sistema tributário britânico, o Google também resume os resultados e dá sua própria resposta de forma proeminente com Featured Snippets – o que pode tornar menos provável que as pessoas sigam links mais abaixo nos resultados da pesquisa.

Por muito tempo, observadores descreveram como o Google está em transição de um mecanismo de busca para um "mecanismo de resposta", onde a empresa simplesmente fornece a informação, em vez de apontar para fontes externas. O exemplo mais claro é a introdução do AI Overviews , um recurso em que o Google usa IA para responder a consultas de busca para você, em vez de exibir links em resposta. Como a empresa colocou, agora você pode " Deixar o Google fazer a busca para você ".

"No passado, o Google mostrava algo que outra pessoa havia escrito, mas agora ele mesmo está escrevendo a resposta", diz Williams-Cook. "Isso agrava todos esses problemas, porque agora o Google tem apenas uma chance de acertar. É uma jogada difícil."

Mas mesmo que o Google tivesse a capacidade técnica de lidar com todos esses problemas, não está necessariamente claro quando ou como eles devem intervir. Você pode querer informações que respaldem uma crença específica e, se for o caso, o Google está fornecendo um serviço valioso ao entregá-lo a você.

Muitas pessoas se sentem desconfortáveis ​​com a ideia de uma das empresas mais ricas e poderosas do mundo tomar decisões sobre qual é a verdade, diz Kayhan. "É trabalho do Google consertar isso? Podemos confiar que o Google vai consertar a si mesmo? E isso é mesmo consertável? Essas são perguntas difíceis, e não acho que alguém tenha a resposta", diz ele. "A única coisa que posso dizer com certeza é que não acho que eles estejam fazendo o suficiente."

Nenhum comentário:

Postar um comentário