quinta-feira, 2 de março de 2023

Inteligência Artificial: Chatbots autoritários


Em seu livro de 1991, Consciousness Explained, o cientista cognitivo Daniel Dennett descreve a ascídia juvenil, que vagueia pelo mar em busca de uma “rocha ou pedaço de coral adequado para… fazer seu lar para toda a vida”. Ao encontrar um, a ascídia não precisa mais do cérebro e o come . É improvável que a humanidade adote tais hábitos culinários, mas há um paralelo metafórico preocupante. A preocupação é que, na competição lucrativa para inserir inteligência artificial em nossas vidas diárias, os humanos estão se emburrecendo ao se tornarem excessivamente dependentes de máquinas “inteligentes” – e corroendo as práticas das quais sua compreensão depende.

O cérebro humano está evoluindo. Três mil anos atrás, nossos ancestrais tinham cérebros maiores que os nossos. Pelo menos uma explicação é que a inteligência tornou-se cada vez mais coletiva há 100 gerações – e os humanos ultrapassaram um limite populacional que viu indivíduos compartilhando informações. O professor Dennett escreveu que a expansão mais notável dos poderes mentais humanos – a ascensão da civilização por meio da arte e da agricultura – foi quase instantânea de uma perspectiva evolutiva.


Essa socialização do pensamento sináptico agora está sendo testada por um tipo diferente de troca de informações: a capacidade da IA de responder a qualquer solicitação com linguagem que soe humana – sugerindo algum tipo de intenção, até mesmo senciência. Mas isso é uma miragem. Os computadores tornaram-se mais completos, mas carecem de uma compreensão genuína, alimentada nos humanos pela evolução como indivíduos autônomos inseridos em uma teia de práticas sociais. ChatGPT , o imitador mais humano, pode gerar uma prosa elegante. Mas a matemática básica está errada. Pode ser racista e sexista. O ChatGPT não tem nostalgia, nem esquemas e nem reflexões. Então, por que todo o alarido? Em suma, dinheiro.

Quando a nova ferramenta de busca do Google com inteligência artificial, a Bard, foi flagrada esta semana com um erro em um vídeo promocional, o erro eliminou mais de US$ 150 bilhões do preço das ações de sua controladora Alphabet. Por que, perguntou-se o neurocientista Gary Marcus , o mecanismo de busca Bing da Microsoft, alimentado por ChatGPT e revelado no mesmo dia que Bard, foi aclamado como “uma revolução” apesar de oferecer um serviço repleto de erros? A resposta é a chance de que a humanidade esteja “bingando” em vez de “pesquisando” na web. Isso não parece irracional: o ChatGPT encantou milhões de pessoas desde que foi lançado no final de novembro.

O problema é que isso é apenas vibrações. Chatbots soam mais autoritários, mas não são mais verdadeiros. O professor Marcus aponta que seus erros, ou alucinações , estão em seu “sangue de silício”, um subproduto da maneira como eles comprimem suas entradas. “Como nenhuma das empresas submeteu seus produtos a uma revisão científica completa, é impossível dizer qual é mais confiável”, escreve ele. “Pode acontecer que o novo produto do Google seja realmente mais confiável.”

Todas as megacorporações adquiriram uma riqueza de informações de forma explorável sem ter que entendê-las. Jornalistas, políticos e poetas podem estar muito preocupados com os aspectos “semânticos” da comunicação, mas não tanto com os engenheiros de IA. Eles olham para a informação em uma mensagem como uma medida da desordem do sistema. É por isso que a IA corre o risco de criar uma nova classe de armas em uma guerra contra a verdade.

Os seres humanos têm um longo histórico de pensamentos positivos e subestimam os riscos de novos avanços. Interesses comerciais impulsionam a tecnologia como uma nova religião cujo artigo de fé central é que mais tecnologia é sempre melhor. Gigantes da web querem deslumbrar os usuários a superestimar a utilidade de suas ferramentas de IA encorajando a humanidade a ceder prematuramente autoridade a eles muito além de sua competência. A atitude empreendedora e a curiosidade científica produziram muitos dos avanços da era moderna. Mas o progresso não é um princípio ético . O perigo não é máquinas sendo tratadas como humanos, mas humanos sendo tratados como máquinas.
Editorial -The Guardian