Uma das crenças que costuma percorrer as mentes no Vale do Silício é a da inevitabilidade da tecnologia, ou seja, a ideia de que o progresso acontecerá invariavelmente e que parte de seu impacto será inescapável. É como se o risco da inteligência artificial um dia eliminar milhares de empregos fosse um caminho sem volta. Ou como se o domínio de uma megaempresa que acaba por sufocar pequenos empresários seja uma “disrupção” inquestionável.
O que une Mark Coeckelbergh, professor de Filosofia e Tecnologia da Universidade de Viena, na Áustria, e o escritor Danny Caine, dono de uma livraria em uma pequena cidade americana, é justamente a contraposição a essa suposta irreversibilidade do ritmo (e da forma) que rege o avanço dos algoritmos na sociedade.
Os dois estarão juntos pela primeira vez na Festa Literária Internacional de Paraty (Flip), nesta quinta-feira. Com uma programação mais quente este ano, a 22ª edição do evento pela primeira vez incluiu na programação oficial uma mesa sobre dados e inteligência artificial, com o nome sugestivo de "Dormindo com o inimigo".
Autor de quinze livros de não-ficção no campo da filosofia da tecnologia, Coeckelbergh estuda as implicações éticas da IA muito antes do mundo voltar os olhos ao tema com o lançamento do ChatGPT, em 2022. Ele é pesquisador da Rede Mundial de Tecnologia (WTN) e membro do grupo de especialistas que aconselha a Comissão Europeia sobre Inteligência Artificial.
Dono da Raven, uma livraria independente em Lawrence, no Kansas, Caine tem atuado há anos em defesa dos pequenos comerciantes nos Estados Unidos, e se tornou uma das vozes mais importantes do país em uma espécie de ativismo anti-Amazon. No Brasil, lançou "Como resistir à Amazon e por quê" (Editora Elefante) no ano passado. A obra expõe as entranhas da gigante varejista que tem negócios de comércio eletrônico, IA, logística, segurança, nuvem e entretenimento.
Apesar de atuarem em áreas distintas, ambos refletem sobre como a tecnologia, alavancada pelo poder das grandes corporações, impacta a sociedade. E quais são as saídas para que efeitos colaterais negativos sejam tratados.
Se as IAs estão fadadas a serem cada vez mais parte da vida cotidiana, questões éticas importantes vão precisar ser enfrentadas, argumenta Coeckelbergh no livro “Robôs, Inteligência Artificial e Ética”, lançado no início deste ano pela Ubu.
"Quem é responsável pelos danos da tecnologia quando seres humanos delegam decisões à IA?", questiona o pesquisador no livro. E se o custo de um sistema com bom desempenho é a falta de transparência, devemos usá-lo indistintamente?, pergunta ele em outro trecho.
Publicada no Brasil no início deste ano, mas escrita em 2020, a obra foca em dilemas éticos da IA pré-explosão dos sistemas generativos, como o ChatGPT. O filósofo belga radicado na Áustria explora questões como a responsabilidade moral de decisões tomadas por inteligências artificiais em situações críticas.
Um exemplo é o caso de um carro autônomo que precisa decidir entre diferentes cenários de risco que podem resultar em um acidente. Se salvar a vida do passageiro implica em colocar em risco um pedestre, qual escolha a IA, um sistema que não foi programado para ter um moral, deve fazer?
Quando algo dá errado, é difícil determinar se a inteligência artificial ou outro componente do sistema é o responsável, ressalta o pesquisador. Um desafio adicional é a "caixa-preta" por trás dessas decisões. São processos tão complexos quando opacos, e até mesmo programadores têm dificuldade de explicar exatamente o que levou a determinado resultado, diz ele.
— Esse problema é ainda mais acentuado no caso desses grandes modelos de linguagem (os LLMs, que são os "cérebros" que alimentam ChatGPT e outros). — diz Coeckelbergh. —Se essa tecnologia for usada em governos, por exemplo, para decidir sobre o bem-estar das pessoas ou em seguradoras, para decidir sobre pedidos de sinistros, ela poderá fazer coisas que nem o usuário nem o desenvolvedor poderiam prever.
O autor defende que mostrar como essas tecnologias funcionam é uma forma de capacitá-las a tomar decisões mais conscientes e evitar a dependência cega em sistemas automatizados.
Em “Como resistir à Amazon e por quê", Caine está interessado em "caixas-pretas". Mais especificamente, em expor como a maior varejista digital do mundo trabalha por trás das entregas rápidas e preços baixíssimos no mercado americano. O exemplo que abre o livro é do preço de livros. Um best-seller que está nas prateleiras da Raven está à venda por US$ 26. Na Amazon, pode ser comprado por US$ 9,59. Mas esse mesmo exemplar é vendido pela editora à livraria por US$ 14.
Como a Amazon pode oferecê-lo por um preço mais baixo do que o das próprias editoras o fazem para as livrarias? A empresa de Jeff Bezos pode se dar ao luxo de vender livros com prejuízo porque compensa as perdas com os lucros de outros serviços, como o Prime, lembra ele. A gigante também otimiza estratégias com a coleta de dados dos consumidores (inclusive a partir da Alexa) e com controle de parte do marketplace (a Amazon é tanto plataforma para vendedores como vendedora, o que significa que ela compete com os próprios negócios que estão lá)
— Seus algoritmos podem ser treinados com base nas compras dos consumidores, e isso é muito mais valioso para a Amazon do que os poucos livros que eles venderiam pelo preço cheio. E eles competem no próprio marketplace. Então, é como num jogo de futebol, em que são ao mesmo tempo árbitro e jogador — diz Caine.
O livreiro acrescenta que, nos Estados Unidos, o controle da Amazon sobre o mercado de livros é tão vasto que a empresa acaba por influenciar o que é publicado e como. Se um livro não tiver chance de sucesso na plataforma, uma editora pode ficar menos propensa a publicá-lo, diz.
Caine também aponta outro problema: a proliferação de livros gerados por IA na Kindle Store, que tem "inundado" a plataforma com títulos de baixa qualidade. Esses livros, muitas vezes criados rapidamente, aproveitam a popularidade de temas, autores ou gêneros em alta para "driblar" os algoritmos e aparecerem para os leitores. Isso não apenas confunde o consumidor, mas também torna ainda mais difícil para autores legítimos e livrarias independentes competirem de maneira justa, avalia.
Coeckelbergh diz que as discussões entre os bilionários da tecnologia sobre a possibilidade de a IA um dia superar a mente humana — com a criação da chamada Inteligência Artificial Geral (AIG) — são uma distração dos impactos reais e imediatos que esses sistemas vêm gerando, como a distorção no mercado editorial.
Sobre a entrada dos algoritmos na área, ele lembra ainda que há uma questão sobre o significado da criatividade em um contexto em que máquinas são capazes de reproduzir a linguagem.
— As máquinas, em última análise, se alimentam da criatividade humana como vampiros. Mas mesmo que simulem a criatividade, acabam presas em ciclos baseados em dados do passado. O que os humanos fazem de verdadeiramente novo está enraizado em nossa subjetividade. Mas acho que as pessoas nas humanidades estão sendo desafiadas a isso: o que significa para mim, como escritor, se essas tecnologias também melhorarem?— questiona.
O pesquisador não propõe a interrupção do desenvolvimento da IA, assim como Caine não sugere que as pessoas simplesmente boicotem a Amazon como forma de resistência.
— Não estou dizendo para as pessoas não apoiarem a Amazon. Estou muito mais interessado em dizer: apoie os pequenos negócios na sua comunidade, porque eles vão perceber a diferença. Até mesmo uma única venda de livro pode ser a diferença entre um dia lucrativo e um dia não lucrativo para a livraria — afirma o escritor, que também acredita em uma regulação antimonopolista como caminho para reduzir as distorções no mercado
Para os dilemas éticos que envolvem a IA, Coeckelbergh destaca a necessidade de três pilares: a regulação internacional, uma educação sobre tecnologia e a conscientização crítica dos consumidores da inteligência artificial, em um esforço conjunto que não deixe as decisões apenas na mão das big techs.
—Temos que forçar essas empresas influentes a serem mais éticas e jogarem pelas regras que acreditamos serem boas para as pessoas. E nós, humanos, talvez tenhamos que aprender a moldar nossa vida e a nós mesmos de forma mais consciente, e isso significa ter capacidade de pensar criticamente sobre a nossa relação com a tecnologia.
Nenhum comentário:
Postar um comentário