Ciência e Tecnologia

O que são deepfakes?

Compartilhar

Tecnologia Deepfake: o que são deepfakes? Como eles fazem deepfakes?

Deepfake é uma nova tecnologia de mídia em que uma pessoa simplesmente pega texto, imagem, vídeo ou áudio existente e então manipula, ou seja, ‘finge’ para parecer outra pessoa usando inteligência artificial avançada (IA) e tecnologia de rede neural ( NN )

Após sua primeira aparição há alguns anos, a tecnologia deepfake evoluiu de uma inócua trapaça de nerd de tecnologia para uma arma de calúnia maliciosa. Neste artigo, veremos exatamente o que é essa temida tecnologia deepfake, como ela funciona, em que diferentes formas ela se apresenta e como podemos detectar ou bloquear um deepfake.

O que é deepfake?

Deepfake é uma das palavras da moda na tecnologia de mídia em que uma pessoa simplesmente pega texto, imagem, vídeo ou áudio existente e depois manipula, ou seja, ‘finge’ para se parecer com outra pessoa usando inteligência artificial avançada (IA) e rede neural (NN ) tecnologia.

Quer colocar palavras abusivas na boca do seu inimigo? Ou troque o protagonista do filme pelo seu astro favorito de Hollywood? Ou você só quer se obrigar a dançar como Michael Jackson? Então deepfake é o que você precisa!

O conteúdo deepfake está crescendo exponencialmente. Infelizmente, a tecnologia deepfake já foi usada repetidamente para ganhar vantagem política, manchar a imagem de um rival ou cometer fraudes financeiras.

Vamos agora examinar os três principais tipos de deepfakes e explorar a ciência de dados que permite que eles funcionem. Também nos concentraremos nas tecnologias de detecção de deepfake nas quais pesquisadores e consultores de segurança estão trabalhando para conter o uso malicioso de deepfakes.

Texto deepfake

Nos primórdios da inteligência artificial (IA) e do processamento de linguagem natural (NLP), postulou-se que seria um desafio para uma máquina realizar uma atividade criativa como pintar ou escrever. Avanço rápido para 2021; com os poderosos modelos de linguagem e bibliotecas que foram construídas ao longo dos anos pelo trabalho incremental de pesquisadores e profissionais de ciência de dados, a prosa gerada por IA de primeira linha agora pode ser escrita com consistência e consistência humanas.

GPT

Tomemos, por exemplo, o GPT-2 – o último tipo de sistema de geração de texto lançado pelo laboratório de pesquisa OpenAI do Vale do Silício. Essa tecnologia impressionou tanto o leigo quanto os especialistas de domínio com sua capacidade de produzir texto coerente com prompts mínimos.

Os engenheiros da OpenAI usaram mais de 8 milhões de documentos textuais que foram descartados (método de extração de dados relevantes de páginas da web) e combinados com um bilhão de parâmetros para modelagem e treinamento de GPT-2 AI.

A essência do deepfake e outras tecnologias como o deeplearning , que alavancam tecnologias artificiais, está em treinar o software para pensar e se adaptar usando dados passados ​​que são alimentados por conjuntos de dados. 

Usando o GPT-2, você pode simplesmente inserir o título e o algoritmo de texto deepfake gerará uma notícia fictícia em torno desse título. Ou simplesmente forneça a primeira linha de um poema e ele retornará o verso inteiro.

Muitas casas de mídia estão usando algoritmos deepfake juntamente com sucata da web para gerar histórias ou blogs que são escritos pelo próprio software.

Pesquisadores do Centro de Terrorismo, Extremismo e Contraterrorismo (CTEC) do Middlebury Institute of International Studies alertam que ferramentas como o GPT-2 podem ser mal utilizadas para propagar a supremacia racial ou disseminar mensagens radicais por organizações extremistas.

Deepfakes nas redes sociais

Em conjunto com a escrita de histórias ou blogs, a tecnologia deepfake também pode ser aproveitada para criar um perfil online falso que seria difícil para um usuário normal discernir. Por exemplo, uma jornalista da Bloomberg (inexistente) com o nome Maisy Kinsley em sites de redes sociais como LinkedIn e Twitter era plausivelmente um deepfake. A foto do perfil dela parecia estranha, talvez gerada por computador. O perfil provavelmente foi criado para benefício financeiro, já que o perfil de Maisy Kinsley tentou repetidamente se conectar com vendedores a descoberto de ações da Tesla nas redes sociais. Os vendedores a descoberto são pessoas pessimistas no mercado de ações e vendem a descoberto, ou seja, vendem a ação com a convicção de que o preço da ação vai cair e depois compram a ação a um preço mais baixo, gerando efetivamente um belo lucro.

Outro perfil com o nome de Katie Jones, que supostamente mencionava o trabalho no Centro de Estudos Estratégicos e Internacionais, foi descoberto como um deepfake criado com a intenção de espionagem de má fé.

Detecção de deepfakes textuais

Pesquisadores do Allen Institute for Artificial Intelligence desenvolveram uma ferramenta de software chamada Grover para detectar conteúdo sintético flutuando online. Os pesquisadores afirmam que este software é capaz de detectar ensaios escritos por deepfake em 92% das vezes. Grover trabalha em um conjunto de teste compilado do Common Crawl, um arquivo e rastreador da web de código aberto. Da mesma forma, uma equipe de cientistas de Harvard e do laboratório MIT-IBM Watson se uniram para projetar o Giant Language Model Test Room, uma ferramenta da web que busca discernir se o texto inserido é gerado por IA.

vídeo deepfake

Fazer fotos e vídeos falsos é o principal arsenal dos deepfakes. É a forma mais usada de deepfake, já que vivemos no mundo onipresente das mídias sociais, em que fotos e vídeos elucidam eventos e histórias melhor do que texto simples.

A IA de geração de vídeo moderna é mais capaz e talvez mais perigosa do que sua contraparte de linguagem natural. A empresa de tecnologia Hyperconnect, com sede em Seul, desenvolveu recentemente uma ferramenta chamada MarioNETte que pode gerar vídeos deepfake de figuras históricas, celebridades e políticos. Isso é feito por meio da reconstituição facial de outra pessoa, cujas expressões faciais são sobrepostas à personalidade-alvo cujo deepfake será criado.

Como o vídeo deepfake é produzido?

Este truque de vídeo emprega uma técnica chamada rede adversária generativa ( GAN ). A GAN faz parte de um ramo de aprendizado de máquina chamado redes neurais. Essas redes são projetadas para emular os processos neuronais do cérebro humano. Os programadores podem treinar redes neurais para reconhecer ou manipular uma tarefa específica.

No GAN usado para geração de deepfake, duas redes neurais são colocadas uma contra a outra para gerar uma saída realista. O objetivo de fazer isso é garantir que os deepfakes sejam criados para parecer o mais real possível. A essência da GAN está na rivalidade entre as duas redes neurais. Na GAN, o falsificador de imagem e o detector de falsificação tentam repetidamente enganar um ao outro. Ambas as redes neurais são treinadas usando o mesmo conjunto de dados.

A primeira rede é chamada de gerador, cujo trabalho é gerar uma imagem forjada usando vetores de ruído (uma lista de números aleatórios) que pareça o mais realista possível. A segunda rede, denominada discriminador, determina a veracidade das imagens geradas. Ele compara a imagem forjada gerada pelo gerador com as imagens genuínas no conjunto de dados para determinar quais imagens são reais e quais são falsas. Com base nesses resultados, o gerador varia o parâmetro para geração de imagens. Este ciclo continua até que o discriminador falhe em verificar que uma imagem gerada é falsa, que é então usada na saída final. É por isso que os deepfakes parecem tão assustadoramente reais.

Detectando vídeos deepfake

Especialistas forenses em todo o mundo estão trabalhando arduamente para encontrar maneiras e ferramentas para identificar deepfakes, pois eles estão se tornando cada vez mais convincentes a cada dia.

Por exemplo, considere este vídeo de demonstração deepfake de Obama lançado pelo Buzzfeed em 2018, que deixou os espectadores estupefatos em todo o mundo. Você pode conferir aqui:

Como as ferramentas de aprendizado de máquina estão alcançando as massas, ficou muito mais fácil criar vídeos falsos convincentes que poderiam ser usados ​​para disseminar notícias baseadas em propaganda ou simplesmente para assediar um indivíduo-alvo.

O Departamento de Defesa dos EUA (DARPA) lançou uma ferramenta para detectar deepfakes chamada Media Forensics. Originalmente, o programa foi desenvolvido para automatizar as ferramentas forenses existentes, mas com o surgimento dos deepfakes, eles usaram IA para combater os deepfakes orientados por IA. Vamos ver como isso funciona.

O vídeo resultante gerado usando deepfake tecnicamente tem diferenças perceptíveis na forma como os metadados do vídeo são distribuídos, em comparação com o original. Essas diferenças são chamadas de vislumbres na matriz, que é o que a ferramenta de detecção de deepfake da DARPA tenta aproveitar ao detectar mídia deepfake.

Siwei Lyu, professor do departamento de ciência da computação da Universidade Estadual de Nova York, observou que os rostos criados com a tecnologia deepfake raramente piscam. Mesmo que o façam, parece antinatural. Ele postula que isso ocorre porque a maioria dos vídeos baseados em deepfake são treinados usando imagens estáticas. Ainda assim, as fotos de uma pessoa geralmente são tiradas com os olhos abertos. Além de piscar os olhos, outros pontos de dados sobre movimentos faciais, como quando eles levantam o lábio superior enquanto conversam, como eles balançam a cabeça, etc., também podem fornecer pistas sobre se o vídeo transmitido é falso.

Áudio deepfake

O poder da inteligência artificial e das redes neurais não se limita apenas a texto, imagens e vídeo. Eles podem clonar a voz de uma pessoa com a mesma facilidade. Tudo o que é necessário é um conjunto de dados da gravação de áudio de uma pessoa cuja voz precisa ser emulada. Os algoritmos deepfake aprenderão com esse conjunto de dados e terão o poder de recriar a prosódia da fala de uma pessoa-alvo.

Software comercial está sendo lançado no mercado, como Lyrebird e Deep Voice,em que você precisa falar apenas algumas frases antes que a IA se acostume com sua voz e entonação. À medida que você alimenta mais áudio de si mesmo, este software se torna poderoso o suficiente para clonar sua voz. Depois de alimentar o conjunto de dados de suas próprias amostras de áudio, você pode apenas fornecer uma frase ou um parágrafo e este software deepfake narrará o texto em sua voz!

Detectando áudio deepfake

No momento, não há muitas ferramentas de áudio deepfake dedicadas disponíveis, mas desenvolvedores e empresas de segurança cibernética estão trabalhando nesse domínio para encontrar melhores soluções de proteção a esse respeito.

Por exemplo, no ano passado, os desenvolvedores da startup de tecnologia Resemble desenvolveram uma ferramenta de código aberto chamada Resemblyzer para a detecção de clipes de áudio deepfake. O Resemblyzer usa algoritmos avançados de aprendizado de máquina para derivar representações de computação de amostras de voz para prever se são reais ou falsas. Sempre que um usuário envia um arquivo de áudio para avaliação, ele gera uma representação matemática resumindo as características únicas da amostra de voz enviada. Por meio dessa conversão, torna-se possível que a máquina detecte se a voz é real ou produzida artificialmente por ferramentas deepfake.

A estrada à frente com deepfakes

Uma investigação feita pelos laboratórios Deeptrace no ano passado descobriu que mais de 14.000 vídeos deepfake estão à espreita online. Eles também notaram um salto de 84% em sua produção em apenas sete meses. Curiosamente, mais de 90% dos vídeos deepfake são materiais pornográficos, em que mulheres famosas trocam de rosto em pornografia.

Como o deepfake está ganhando força, está apresentando um sério problema de intrusão não apenas na privacidade, mas também na dignidade dos indivíduos. Ironicamente, para combater deepfakes alimentados por IA, a própria inteligência artificial está sendo usada. Embora uma IA ‘boa’ esteja ajudando a identificar deepfakes, esse sistema de detecção depende muito do conjunto de dados que consome para treinamento. Isso significa que eles podem funcionar bem para detectar vídeos deepfake de celebridades, já que uma grande quantidade de dados está disponível sobre eles. Mas detectar o deepfake de uma pessoa discreta seria um desafio para esses sistemas de detecção.

Os gigantes da tecnologia de mídia social também estão trabalhando em sistemas de detecção de deepfake. O facebook anunciou recentemente que está trabalhando em um sistema automatizado para identificar conteúdo deepfake em sua plataforma e eliminá-lo. Em linhas semelhantes, o twitter propôs sinalizar deepfakes e eliminá-los se forem considerados provocativos.

Embora reconheçamos e apreciemos os esforços dessas empresas de tecnologia, só o tempo dirá o quão bem-sucedidos eles são em manter os deepfakes maliciosos afastados!

Saber mais: Um público bem informado é um pré-requisito para a democracia

Botão Voltar ao topo