— A AGI está bastante próxima. Vem, talvez, já no ano que vem — afirmou Altman.
A sigla em inglês quer dizer inteligência artificial geral. Mais frequentemente, é descrita de forma mais simples: aquele momento em que inteligências artificiais igualam ou superam a humana.
Uma pausa dramática se faz necessária. Altman sugeriu que IAs podem superar a inteligência humana brevemente. Talvez no ano que vem.
Só que, simultaneamente, fez algo ainda mais estranho. Tratou o evento como algo pouco extraordinário.
— Acontecerá antes do que imaginam — afirmou Altman —, mas importará pouco. Muitos dos riscos sobre os quais alertamos com a IA não ocorrerão no momento da AGI. A economia se moverá mais rápido, as coisas se desenvolverão com mais velocidade, mas a partir daí há um longo avanço partindo da AGI até o que chamamos de superinteligência.
A declaração é estranha e precisa ser decodificada. Há um ano, o próprio Altman fez um tour mundial, com parada no Rio de Janeiro, alertando aos governos que procedessem à regulação rápido perante os riscos de a inteligência artificial ultrapassar as capacidades humanas. Agora, mudou o discurso de forma bastante radical e cria um vácuo, uma distância, entre duas categorias novas. De um lado, AGI; do outro, lá na frente, algo chamado superinteligência.
A explicação possivelmente começa no contrato que sua empresa, a OpenAI, tem com a Microsoft. A sacada foi do Financial Times. Tendo investido US$ 13 bilhões no desenvolvimento do GPT, a companhia fundada por Bill Gates tem acesso total às tecnologias desenvolvidas pela OpenAI, mas há uma cláusula de ruptura. Esse acesso se encerra quando a AGI for alcançada.
Evidentemente, os advogados não soltaram a expressão sem defini-la bem. Então, não basta Altman reinterpretar o que quer dizer inteligência artificial geral numa entrevista. O que vale é o que está no contrato:
— São sistemas autônomos com performance superior à humana na maioria do trabalho com valor econômico.
Tome o trabalho de um executivo. O serviço de um advogado. A função de um jornalista. A capacidade de diagnóstico de um médico. Quebre essas profissões em uma série de ações. O momento em que uma IA for capaz de desempenhá-las de forma autônoma, melhor que um profissional médio, essa definição de AGI se aplicará.
É isso que Altman quer dizer com “a economia se moverá mais rápido”, com “as coisas se desenvolverão com mais velocidade”. Boa parte do trabalho intelectual mais braçal seria substituído. Autonomia é uma característica importante nessa equação. Os sistemas devem sair trabalhando sem que alguém dê o comando. Eles são agentes. Têm agência. Percebem quando há trabalho para realizar — e o realizam. Mas isso que ele descreve não é a substituição definitiva de executivos, advogados, jornalistas ou médicos.
O que sobra é o ato de criação e a capacidade de empatia. A possibilidade de ser original, de resolver problemas novos e também de entender quando é o momento de sorrir. IAs poderão detectar tumores em exames de imagem bastante antes de um médico. Mas não serão tão cedo as entidades mais adequadas para dar a notícia. Ou conviver com pacientes. Um contrato pode, sim, ser redigido por uma IA, assim como o preenchimento de uma planilha ou a redação de uma lista de perguntas. Mas a pergunta que traz a resposta que surpreende, o argumento que convence o juiz num caso muito difícil, tudo aquilo que não está nos dados, que nunca foi feito, isso ainda será exclusivo de seres humanos.
Altman tem se mostrado um executivo interessante. Cada vez menos é claro e, cada vez mais, é críptico. Fala de um jeito que parece dizer muito, mas exige esforço de interpretação. Sua entrevista com o Times parece ser o lance de abertura numa renegociação de contrato com a Microsoft. Quer mais dinheiro. E a OpenAI precisa de mais dinheiro. Tem mais concorrentes no mercado, e o que faz custa bilhões. Ainda assim, precisará entregar algo que pareça realmente novo e que possa chamar de forma convincente de inteligência artificial geral.
O ano de 2025 será interessante.
Nenhum comentário:
Postar um comentário