Sam Altman parece ser um fã do filme Her. Do que não há dúvida é que é muito astuto e todas as estratégias são úteis para assegurar o sucesso do produto.
Não obstante a recusa, numa manobra típica das BigTech, o produto saiu com uma voz em tudo semelhante.
Perante o recurso a advogados, a OpenAI veio afirmar que tinha usado a voz de uma outra atriz (que não identificou) e removeu a voz do sistema.
Clonar a voz de uma qualquer pessoa está hoje ao alcance de um click. No site Hugging Face, estão disponíveis dois modelos – HuBert e Bark – que permitem concretizar o milagre.
A utilização de vozes e imagens clonadas em esquemas de fraude, para chantagem ou para espalhar informação falsa, está a aumentar. O termo deepfake entrou no nosso léxico, e fez-nos perder a confiança no que vimos e ouvimos.
A capacidade destes sistemas assenta nos milhares de dados utilizados no treino. Dados que equivalem a todos os áudios existentes na internet de atores, mas também de qualquer gravação da qual tenha sido feito upload. Dos filmes de Hollywood ao vídeo de 20 segundos do aniversário de um amigo, partilhado numa conta aberta do Facebook ou do Instagram.
Programas específicos escrutinam a net, e “aspiram” toda a informação relevante, fazendo uma cópia para a base de dados que depois treina os modelos. O anseio por dados de qualidade é de tal forma intenso que a Perplexity celebrou um acordo com a empresa de telecomunicações indiana Airtel, na qual disponibiliza a sua chatbox “sem custos” aos 360 milhões de clientes daquela. Também a OpenAI disponibiliza, na Índia, o ChatGPT a um quinto do preço da versão mais barata nos Estados Unidos. E 92% dos trabalhadores indianos utilizam diariamente ferramentas de Inteligência Artificial, tornando a Índia uma gigante “mina” de dados.
Artistas beneficiam de alguma proteção, no âmbito da legislação que protege a criação artística, na utilização comercial da sua imagem e da sua voz. Sem a sua autorização, a utilização pelas ferramentas – seja no treino, seja na replicação – implica uma utilização ilegítima e o direito de serem compensados. Aliás, multiplicam-se as ações judiciais pela utilização indevida de dados – imagem, notícias, livros, som. Mas é uma luta desigual, face aos inesgotáveis recursos das BigTech e ao temor de reguladores e tribunais de porem em causa o desenvolvimento tecnológico com multas que de facto tenham impacto ou uma decisão que obrigue a retreinar os modelos apenas com dados devidamente licenciados. E, assim, embora as BigTech divulguem nos seus relatórios financeiros o risco associado a estas atividades judiciais, o preço a que as suas ações são transacionadas em bolsa não é afetado, nem a sua conduta parece alterar-se.
Na União Europeia, entraram, finalmente, em vigor, no dia 2 de agosto, as disposições que obrigam as plataformas a divulgar que dados utilizaram no treino dos modelos. Para os modelos já no mercado, as empresas terão até 2 de agosto de 2027 para divulgar a informação… Demasiado tempo, para quem vê o seu trabalho explorado de forma indevida.
Mas tal não protege quem vê a sua vida impactada por uma deepfake. Para o cidadão comum, não existe ainda um regime que o proteja ou que lhe assegure os meios de ser retirada, com celeridade, a deepfake. Na Dinamarca, o governo iniciou um processo legislativo para conferir direitos de autor à face, à voz e à aparência física. Afirmou também o seu empenho em promover legislação equivalente na União Europeia.
A legislação, proposta pela Dinamarca, visa assegurar que qualquer vítima possa solicitar à plataforma a remoção da deepfake em 48 horas e o direito de reclamar compensação por prejuízos. As BigTech irão certamente resistir. Não querem alocar recursos a resolver o problema; e esgrimem o argumento da liberdade de expressão. Esperemos que os esforços da Dinamarca sejam bem-sucedidos… a bem de todos nós.

Nenhum comentário:
Postar um comentário