Os avanços tecnológicos são cada vez mais constantes e palpáveis. A todo instante, novas tecnologias são desenvolvidas e seu processo de evolução recai sobre a sociedade com alto impacto – servindo como um importante propulsor de grandes mudanças sociais. Mas mais do que orientar e facilitar atividades cotidianas, a tecnologia tem se mostrado como um poderoso agente de transformação, capaz de ditar o comportamento e o posicionamento de cidadãos diante de momentos de tomadas de grandes decisões.
Um exemplo disso é justamente o uso de tecnologia, aplicada, principalmente, à utilização massiva das redes sociais – inclusive com o auxílio de robôs –, durante as eleições. Em 2018, no decorrer das campanhas eleitorais, o Brasil experienciou a força das fake news.
De acordo com uma pesquisa realizada pelo Ideia Big Data, mais de dois terços das pessoas entrevistadas afirmaram ter recebido notícias falsas pelo WhatsApp. Além disso, segundo relatório desenvolvido pelo Instituto Ipsos, os brasileiros são os que mais acreditam em fake news em um grupo de 27 países analisados. O resultado mostra que 62% da população brasileira já acreditou em um boato que se espalhou pela internet. Esse cenário, além de corroborar o potencial da disseminação de notícias falsas, expõe a necessidade urgente de educação digital e alerta para uma nova preocupação: deepfake e shallowfake.
Deepfake e shallowfake: nova modalidade de desinformação
Os novos conceitos podem ser compreendidos como uma derivação mais elaborada e sofisticada da fake news. Deepfake nada mais é do que uma técnica para recriar sons e imagens, que resultam em um vídeo falso – destruindo a crença de que arquivos de áudio e vídeo são confiáveis e provas, quase sempre, irrefutáveis.
Com o uso de softwares de inteligência artificial, principalmente o machine learning, que utiliza dados para aprender com eles, são usados algoritmos para fazer o reconhecimento da imagem que será copiada e, a partir de redes neurais artificiais, os algoritmos classificam imagens, reconhecem falas, detectam objetos e são capazes de aprender o formato de rostos, se atentando às expressões faciais e se adaptando e reagindo às luzes e sombras.
Com isso, é possível criar um vídeo utilizando o rosto e a voz de uma pessoa mostrando que ela fez e disse coisas que nunca aconteceram. A criação é feita com base em um conteúdo original. Ao fornecer informações ao software é gerado um segundo vídeo em que é possível alterar parte de uma frase, inserindo-a em outro contexto, ou mudando-a completamente.
Já o shallowfake se trata de uma produção menos refinada, com edições mais superficiais e grosseiras. Por não fazer uso de softwares de inteligência artificial, os vídeos de shallowfake costumam descontextualizar o conteúdo original, acrescentando ou removendo informações de fala de maneira intencional. Sua construção menos requintada, no entanto, reforça o mesmo processo de desinformação ao cidadão.
Os impactos sociais, políticos e econômicos do deepfake e shallowfake
A prática de adulterar vídeos usando programas de inteligência artificial, que requerem grande conhecimento de programação, teve início com usuários criando montagens de vídeos com conteúdo pornográfico, geralmente atribuindo aos papéis às imagens de atrizes e celebridades famosas.
Mas o processo evoluiu e as intenções podem se modificar ao atingir novos patamares. Na economia, por exemplo, o valor das ações de grandes empresas sofre variações também por sua reputação no mercado, levando em conta declarações de seus CEOs. Um vídeo falso de um presidente de uma grande companhia, que contenha conteúdo ofensivo, por exemplo, pode ter uma repercussão sem escalas e ser o suficiente para derrubar a empresa.
Outra grande preocupação, para além da econômica, consiste no sistema judiciário, uma vez que com a propagação de deepfakes e shallowfakes, as provas em vídeo possam entrar em descrédito. Essa possibilidade pode fazer com que os sistemas judiciários do mundo todo entrem em colapso.
No âmbito político, a pressão para barrar as novas técnicas são ainda maiores, sobretudo em período de eleição – momento em que sua utilização tende a crescer e a causar impactos estrondosos. Nos Estados Unidos, por exemplo, um vídeo da presidente da Câmara dos Representantes, Nancy Pelosi, foi editado para que a congressista parecesse embriagada em um de seus discursos. O vídeo viralizou nas mídias sociais e teve mais de 6,3 milhões de visualizações. Outro caso conhecido é do senador americano Bernie Sanders, no qual aparece em vídeo se apresentando como um dos candidatos do programa America’s Got Talent. Ambos os vídeos configuram uma quebra na imagem e reputação dos políticos, podendo ser responsáveis pela definição de suas carreiras.
Dessa forma, as eleições podem sofrer drasticamente com base neste tipo de conteúdo viral. O compartilhamento desses vídeos como sendo reais pode impactar a opinião pública de maneira irreversível. Primeiro porque suas construções bem elaboradas podem facilmente confundir o cidadão comum, levando-a acreditar que se trata de um vídeo verdadeiro. Depois porque, ainda que um especialista em vídeo possa desmentir o conteúdo do vídeo, comprovando sua falsidade, essa informação pode não chegar a todas as pessoas, principalmente porque esse tipo de conteúdo nunca viraliza com a mesma proporção dos conteúdos falsos.
Eleitores com opiniões já formadas podem se munir de um deepfake para atacar o candidato da oposição e, assim, construir uma imagem completamente negativa a seu respeito, influenciado demais eleitores. E, assim como com as fakes news, pode haver uma banalização de vídeos deepfakes, fazendo com que materiais realmente verdadeiros causem dúvidas sob a alegação maciça de que tudo pode ser falso.
O combate e a mitigação às deepfakes e shallowfakes
No Brasil, um país já mergulhado na disseminação de notícias falsas, o uso desses artifícios pode causar danos sem precedentes. Neste ano, a Comissão Parlamentar Mista de Inquérito (CPMI) se concentrará em avaliar e punir os responsáveis pela divulgação de fake news em 2018 e buscará aprimorar a legislação para evitar que esse processo se repita nas próximas eleições. Apesar disso, é pouco provável que as eleições de 2020 consigam passar ilesas pela criação de deepfakes e shallowfakes.
Para combater esta prática é preciso ir muito além da criação de uma legislação mais rígida; é preciso que todos os entes da sociedade estejam comprometidos com sua mitigação, seja por alertar sobre a nova modalidade, pela disseminação de informações corretas até o desenvolvimento de softwares que possam identificar e barrar a divulgação destes conteúdos.
No ano passado, o Buzzfeed publicou um vídeo em que o ex-presidente Barack Obama fala sobre coisas que nunca diria, incluindo ofensas à Donald Trump. No decorrer do vídeo o usuário entende que se trata de um deepfake. Segundo o próprio site, a intenção do vídeo era alertar para o perigo desta prática. O Facebook – após seu criador, Mark Zuckerberg, ter sido alvo de um vídeo deepfake, no qual fala sobre o roubo de informações, anunciou que irá remover conteúdos manipulados da rede, que tenham características de um deepfake.
Além disso, também está em estudo uma forma de melhorar a detecção de deepfakes. Se um conteúdo for classificado como falso ou parcialmente falso por um de seus verificadores, o post terá seu alcance reduzido e, ao compartilhar, o usuário receberá um aviso de que se trata de uma publicação falsa. Outras empresas focadas em tecnologia também estão analisando maneiras de eliminar este tipo de conteúdo. Google, Microsoft, entre outros, lançaram o Deepfake Detection Challange, um desafio para a criação de tecnologia capaz de detectar deepfakes.
Para o cidadão comum, algumas dicas podem ajudar na hora de avaliar se um vídeo é verdadeiro ou não. Recorte de locais de gravação ou até mesmo de falas, com alteração de velocidade, a fim de criar uma nova narrativa, podem ser consideradas características de um potencial deepfake, assim como o embaçamento e desfoque do rosto, principalmente da região da boca, onde pode haver dessincronização de áudio e vídeo, expressões faciais, timbre da voz e entonações. Especialistas apontam que um dos principais pontos de atenção é notar se os olhos da pessoa retratada no vídeo estão fixos. Na maior parte dos vídeos deepfakes, os olhos não piscam, justamente por ser um objeto de grande dificuldade na hora de editar.
Por fim, enquanto novas tecnologias são criadas para combater os malefícios gerados pelo mau uso da própria tecnologia, resta a toda a sociedade buscar por mais educação digital, a fim de evitar o derramamento de conteúdos falsos que possam levar ao enfraquecimento e o declínio do sistema democrático.