Deepfakes de áudio e truques de IA ameaçam eleições em todo o mundo

Imagem criada utilizando Dalle-3 por OpenArt.

Atualmente, quase qualquer pessoa pode criar gravações de áudio ou vídeo de celebridades ou pessoas comuns agindo e falando de maneiras que nunca teriam, usando um software de inteligência artificial (IA) simples e amplamente acessível. Os direitos das pessoas cujas vozes e imagens estão sendo apropriadas precisam ser mais seriamente protegidos. As grandes empresas de tecnologia se uniram em uma tentativa histórica de impedir o uso indevido da IA nas próximas eleições em todo o mundo.

As Deepfakes continuam a se desenvolver cada vez mais e com melhor qualidade, mais convincentes e mais próximas da realidade. O grande número de eleições, ao redor do mundo durante 2024, levanta a preocupação com a inclusão da inteligência artificial nesses processos eleitorais, o que pode comprometer a integridade das eleições. A manipulação de eleitores com o uso de deepfakes é uma das principais discussões em muitos países do mundo que estão se preparando para as eleições. Cerca de 4 bilhões de pessoas irão às urnas em mais de 50 países. Acadêmicos, jornalistas e políticos expressaram preocupações sobre o uso de conteúdo gerado por IA em ações de influência política.

No entanto, o conteúdo gerado por IA também terá um impacto maior na nossa vida social. Recentemente, casos de conteúdos virais têm sido relacionados a celebridades, mas dada a rapidez com que as deepfakes estão evoluindo, teremos vídeos falsos de pessoas comuns que não são celebridades ou políticas e que não despertam o interesse geral nos seus empregos ou atividades. Esta será uma ameaça muito séria para as sociedades, e é por isso que é muito importante ter iniciativas coletivas contra os truques gerados pela IA.

Estudos de caso de deepfakes recentes

Deepfakes, ou manipulações não baseadas em IA chamadas “cheapfakes”, não são novas e já existem há algum tempo. No entanto, com o impacto do ChatGPT em levar, no último ano, a IA a um público mais amplo, bilhões de dólares foram investidos em empresas de IA. O desenvolvimento de programas que facilitam sua produção, especialmente deepfakes, multiplicou o uso da inteligência artificial para produzir deepfakes direcionados ao público. Mesmo agora, além da manipulação de vídeo, houve casos em que uma deepfake de áudio é produzida, o que é ainda mais fácil de criar.

O caso do áudio deepfake do presidente dos EUA, Joe Biden, que foi distribuído em New Hampshire, pedindo às pessoas que não votassem nas primárias do estado, atingiu mais de 20.000 pessoas. A pessoa que estava por trás dessa manipulação e pagou US$ 150 para produzi-la, Steve Kramer, afirmou que o fez como um ato de desobediência civil para chamar a atenção para os riscos associados à inteligência artificial na política e para a necessidade de regulamentações da IA.

Outro grande exemplo que mostrou como as deepfakes podem ser um perigo para a democracia é o do áudio do político eslovaco, Michal Simecka. Uma mensagem de voz gravada foi postada no Facebook 48 horas antes da eleição da Eslováquia, parecendo ser de Simecka discutindo fraude eleitoral com a jornalista Monika Todova. Um exemplo que pode ter sérias implicações políticas e sociais é a deepfake de áudio do prefeito de Londres, Sadiq Khan. No início de novembro de 2023, um áudio deepfake de Khan se tornou viral quando ele parecia estar insultando o Dia do Armistício (uma celebração para marcar o momento em que a Primeira Guerra Mundial terminou) e exigindo que as marchas pró-Palestina tivessem preferência.

Além das deepfakes de áudio com protagonistas políticos, as deepfakes de vídeo com celebridades continuam circulando na internet. Por exemplo, há deepfakes de vídeo do famoso ator de Hollywood, Tom Hanks, em que uma versão de IA dele promoveu um plano odontológico, ou o famoso YouTuber dos EUA, MrBeast, que parecia estar sediando “a maior doação de iPhone 15 do mundo”.

As deepfakes de imagens da cantora Taylor Swift, que foram publicadas no início deste ano em várias plataformas de rede social — X (antigo Twitter), Instagram, Facebook e Reddit — também se tornaram virais. Antes de ser retirada do X, uma imagem deepfake de Swift foi visualizada mais de 45 milhões de vezes nas cerca de 17 horas em que estava na plataforma.

Iniciativa coletiva contra os truques gerados pela IA

O “Acordo Tecnológico para Combater o Uso Enganoso de IA nas Eleições de 2024”, anunciado na Conferência de Segurança de Munique, incluiu 20 grandes players, como Adobe, Google, Microsoft, OpenAI, Snap Inc. e Meta, que se comprometeram a usar tecnologia de ponta para detectar e neutralizar conteúdo nocivo gerado por IA que tenha como objetivo enganar os eleitores, bem como apoiar os esforços de promover a conscientização pública, a alfabetização midiática e a resiliência de toda a sociedade. É a primeira vez que 20 empresas diferentes estão se unindo contra os truques gerados pela IA.

As empresas participantes concordaram com oito compromissos específicos para mitigar os riscos relacionados ao conteúdo eleitoral enganoso gerado por IA. Esta iniciativa entre o setor de tecnologia e a IA tem como alvo imagens, vídeos e áudio criados por IA que possam enganar os eleitores em relação a candidatos, autoridades eleitorais e o processo de votação. No entanto, não exige que tal conteúdo seja banido completamente.

Inicie uma conversa

Colaboradores, favor realizar Entrar »

Por uma boa conversa...

  • Por favor, trate as outras pessoas com respeito. Trate como deseja ser tratado. Comentários que contenham mensagens de ódio, linguagem inadequada ou ataques pessoais não serão aprovados. Seja razoável.