Vídeos falsos gerados por IA podem ser o mal da próxima década

Qualquer um que tenha visto o famoso vídeo em que Barack Obama aparece insultando a figura do atual presidente dos EUA, Donald Trump, deve ter experimentado certo grau de incredulidade. Embora o conteúdo seja impressionante, os artifícios computacionais utilizados para criar o conteúdo falso são perceptíveis mesmo para olhos não treinados. Há uma questão aí, entretanto: o chamado DeepFake continua em franca evolução.

De fato, uma pesquisa recentemente apresentada no CNAS (Center for a New American Security) levantou preocupações sobre como esses conteúdos gerados a partir de inteligência artificial podem produzir efeitos nocivos já no próximo ciclo de eleições dos EUA, a serem realizadas em 2020. Tudo o que essas novas IAs mais convincentes precisarão é de alguns exemplos de áudio e vídeo reais para produzir virtualmente qualquer coisa – de sentenças políticas temerárias a conteúdo pornográfico rasteiro.

Evolução exponencial em cinco anos

Segundo a pesquisa publicada no CNAS, cinco anos é todo o tempo que as DeepFakes necessitam para se tornarem suficientemente convincentes e causarem uma boa dose de estragos. Embora um profissional bem treinado provavelmente ainda vá perceber “algo de estranho” nesses conteúdos, meia década deve ser suficiente para que um sujeito alheio a esses avanços seja plenamente convencido – ou pelo menos convencido o suficiente para passar a coisa adiante.

É claro que semelhante falseamento não é, nem de longe, algo novo. Afinal, vale lembrar do filme Tron: O Legado, em que Jeff Bridges aparece com a mesma cara que tinha 35 anos antes, na primeira versão do longa. O ponto, entretanto, é que tem se tornado cada vez mais fácil e barato produzir algo do gênero. De fato, a maior parte dos aplicativos de DeepFake utilizam a plataforma de inteligência artificial livre da Google, a TensorFlow – que permite mesmo a um hobbysta com algum tempo livre produzir um vídeo fake razoavelmente convincente.

VIDEO

“Sistemas de IA são capazes de gerar gravações de vozes sintéticas realísticas de qualquer indivíduo do qual disponham de uma quantidade suficiente de dados de base”, consta do referido estudo. “O mesmo tem se tornado cada vez mais verdade para vídeos.”

Detector de conteúdos falsos

Mas preocupação crescente com o impacto dos conteúdos falsos sobre governos de base democrática trouxe consigo algumas iniciativas. Atualmente, o governo dos EUA, por exemplo, trabalha em uma ferramenta que possa detectar conteúdos produzidos por meio de redes neurais DeepFake – e há ainda uma série de empreitadas privadas voltadas ao mesmo objetivo.

O problema, como sempre, é a abertura da Caixa de Pandora. Com vídeos e áudios falsos tornados cada vez mais onipresentes, fica difícil crer que possa existir em algum momento um sistema capaz de proteger populações inteiras do estrago promovido por veiculação de informações falsas e de conteúdos forjados.

Fonte: CNAS, Techcrunch

Pechinchas, cupons, coisas grátis? Participe do nosso GRUPO DE DESCONTOS do Whatsapp e do Facebook e garanta sempre o menor preço em suas compras de produtos de tecnologia.

Gostou dessa matéria?

Inscreva seu email no Canaltech para receber atualizações diárias com as últimas notícias do mundo da tecnologia.

via Canaltech

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *