OpenAI Desenvolve Ferramenta Revolucionária de Clonagem de Voz: Preocupações sobre Uso Responsável em Meio a Eleições de 2024

A OpenAI anunciou ter desenvolvido uma ferramenta que pode clonar vozes humanas a partir de apenas 15 segundos de áudio gravado – mas ainda não a lançou ao público por medo de que seja mal utilizada, especialmente durante as eleições de 2024.

Chamado de Voice Engine, o software foi desenvolvido pela primeira vez em 2022 e integrado ao recurso de texto para fala do ChatGPT.

Mas a partir do final de 2023, a OpenAI “começou a testá-lo em privado com um pequeno grupo de parceiros de confiança”, disse o gigante da inteligência artificial em um post no blog anteriormente divulgado pelo The Guardian. A empresa afirmou ter ficado “impressionada” com as aplicações do Voice Engine, que incluem assistência de leitura para não leitores, ferramenta educacional para crianças e tradução de conteúdo.

Em um de seus casos de uso mais impressionantes, pesquisadores do Instituto de Neurociências Norman Prince em Rhode Island usaram um clipe de má qualidade de 15 segundos de uma jovem dando uma apresentação na escola – que desde então perdeu a voz devido a um tumor cerebral vascular – para “restaurar” sua fala.

No entanto, a OpenAI ainda não lançou o Voice Engine para o público em geral porque há “riscos sérios, que estão especialmente em destaque em ano de eleição”, segundo o post do blog.

“Estamos optando por apresentar, mas não lançar amplamente essa tecnologia neste momento”, disse a OpenAI, “para fortalecer a resiliência da sociedade contra os desafios trazidos por modelos gerativos cada vez mais convincentes.”

Não ficou imediatamente claro quando a OpenAI lançaria o Voice Engine em uma escala maior, embora em um futuro próximo, tenha dito: “Encorajamos medidas como a eliminação gradual da autenticação baseada em voz como medida de segurança para acessar contas bancárias e outras informações sensíveis.”

“Esperamos iniciar um diálogo sobre o uso responsável de vozes sintéticas e como a sociedade pode se adaptar a essas novas capacidades”, acrescentou a OpenAI. “Com base nessas conversas e nos resultados desses testes em pequena escala, tomaremos uma decisão mais informada sobre se e como implantar essa tecnologia em grande escala.”

Já o uso da IA tem incentivado a desinformação, incluindo quando uma imagem deepfake de Donald Trump resistindo à prisão enquanto sua esposa Melania gritava com a polícia se tornou viral.

Como resultado, o Google atualizou sua política no ano passado para exigir que “todos os anunciantes eleitorais verificados” “divulguem proeminente” quando seus anúncios usam IA. No entanto, a OpenAI não seguiu o exemplo.

A startup com sede em São Francisco, no entanto, garantiu em seu post no blog que seus parceiros com acesso exclusivo ao Voice Engine concordaram com políticas de uso que proíbem a impersonificação de outra pessoa ou organização sem consentimento ou direito legal.

“Estamos envolvendo parceiros dos EUA e internacionais de diversos setores, como governo, mídia, entretenimento, educação, sociedade civil e outros, para garantir que estejamos incorporando seus comentários conforme construímos”, assegurou a OpenAI.

Representantes da OpenAI se recusaram a comentar além do post no blog da empresa.