DEEPFAKES: PREPARA-SE AGORA

Relatório da oficina da 1ª reunião de nível nacional no Brasil + Principais ameaças e soluções preferenciais (português)

Brasil, 2019

‘Deepfakes’ e a mídia sintética são novas formas de manipulação audiovisual que permitem que as pessoas a criem simulações realistas do rosto, de voz ou de ações de outra pessoa. Essas novas formas permitem, de forma fraudulenta, criar uma ilusão de uma pessoa falando ou fazendo algo imoral. Os deepfakes estão mais fáceis de serem produzidos, exigindo poucas imagens para serem construídos e estão sendo, por sua fez, mais comercializados.

Atualmente, os deepfakes frequentemente impactam mulheres, em relação à produção de imagens e vídeos sexuais, manipulados, e não consensuais. Ao mesmo tempo, há temores que essa manipulação audiovisual possa ameaçar várias outras áreas de nossa sociedade. Novas soluções estão sendo propostas para lidar com o uso indevido dessas novas ferramentas, e é fundamental que essa discussão tenha uma perspectiva global, e não de um ponto de vista centrado apenas nos EUA ou na Europa.

A primeira reunião nacional em preparação para deepfakes

No dia 25 de julho de 2019, a WITNESS realizou uma convocação chamada “Deepfakes e Mídia Sintética Prepare-se Agora” em São Paulo, Brasil. Em nosso entendimento, foi a primeira discussão multidisciplinar a nível nacional sobre como entender e se preparar pragmaticamente para a ameaça potencial de deepfakes.

O objetivo do encontro foi explorar e priorizar soluções pragmáticas para a prevenção e a defesa contra um futuro de vídeo e áudio alterado por novas técnicas de inteligência artificial (IA), com foco particular nas ameaças identificadas no Brasil e nas soluções desejadas por uma série de grupos interessados. Os participantes do workshop incluíram jornalistas, verificadores de fatos, tecnólogos, ativistas cívicos e outros grupos. Este workshop fez parte de uma iniciativa da WITNESS focada em como proteger e defender vozes marginais, jornalismo cívico e direitos humanos, à medida que tecnologias emergentes como a IA se cruzam com desinformação, manipulação da mídia e crescente autoritarismo. O workshop também contou com o apoio da equipe da WITNESS Brasil. Mais informações sobre o trabalho dos deepfakes da WITNESS, incluindo relatórios de convocações e workshops anteriores, estão disponíveis em inglês em: wit.to/Synthetic-Media-Deepfakes

O workshop foi estruturado para ensinar sobre as tecnologias usadas na criação e detecção de mídia sintética; seu uso atual em ataques a mulheres, em violência de gênero e em críticas e sátiras culturais. Em seguida, os participantes colocaram isso no contexto de desafios existentes sobre a desinformação no Brasil e se concentraram em priorizar ameaças e propostas soluções. 

Quais são as ameaças?

Depois que aprenderam sobre as possibilidades tecnológicas dos deepfakes e discutiram sobre a situação atual no Brasil, os participantes priorizaram essas ameaças-chave como áreas em que novas formas de manipulação podem expandir se ameaças existentes continuarem ou se novas forem introduzidas. Por exemplo:

  • Jornalistas e ativistas cívicos terão sua reputação e credibilidade atacadas. Isso representa outras preocupações mundiais.
  • Figuras públicas enfrentarão imagens sexuais não consensuais e violência de gênero.
  • O movimento social enfrentará ataques à credibilidade e segurança de seus líderes e de suas narrativas públicas.
  • Haverá ataques contra processos judiciais e o valor probatório do vídeo, tanto para notícias quanto para evidências, pois o vídeo será desacreditado, alegado como não autêntico, e os processos terão um ônus a mais: provar o que de fato e verdadeiro.
  • deepfakes será mais uma arma que contribuirá para campanhas de conspiração.
  • À medida que os deepfakes se tornam mais comuns e fáceis de serem produzidos em massa, eles tendem a contribuir para uma profusão de falsidades que inundam as agências de verificação de mídia e verificação de fatos, uma vez que estas por ter manipulado o conteúdo quais elas precisam verificar.
  • Formas semelhantes de falsidade contribuem para a criação cumulativa de desconfiança nas instituições de uma sociedade com ‘confiança zero’, onde a verdade é substituída pela opinião.
  • A micro segmentação de conteúdo, cada vez mais personalizado pela IA, usará o perfil psicológico de uma pessoa ou de um grupo para realizar uma segmentação muito eficaz com conteúdo falsificado, com a intenção de reforçar uma posição ou opinião existente.

Quais são as soluções que precisamos?

Os participantes discutiram uma série de soluções que estão sendo propostas a nível mundial, mas que são geralmente lideradas pelo  Vale do Silício e as ações legislativas em Washington DC e Bruxelas. Isso inclui as seguintes áreas:

  1. Podemos ensinar as pessoas como identificar deepfakes?
  2. Como construímos a capacidade e coordenação jornalísticas existentes?
  3. Existem ferramentas para detecção? (e quem tem acesso?)
  4. Existem ferramentas para autenticação? (e quem foi excluído?)
  5. Existem ferramentas para ocultar nossas imagens de serem usadas como dados de treinamento?
  6. O que queremos das empresas comerciais que produzem ferramentas de síntese?
  7. O que os legisladores e as plataformas de midia social devem fazer?

Após uma discussão sobre o status dos esforços de detecção, a inadequação de treinamentos sobre detecção de deepfakes e os esforços atuais do Facebook nessa luta, os participantes se concentraram nas soluções mais relevantes para o Brasil. 

Precisamos de alfabetização midiática contextualizada nos problemas de desinformação, especialmente para comunidades de base.

Em vez de falar sobre o atual algorítmico “calcanhar de Aquiles” de qualquer processo atual de criação de deepfake – que geralmente é uma falha técnica que desaparece à medida que as técnicas são aprimoradas – devemos trabalhar para criar um pensamento crítico que possa fazer as pessoas duvidarem de materiais, verificar fontes e proveniência e corroboração, distingue opinião e propaganda e procure veracidade antes de acreditar e compartilhar. Isso precisa ser sobre o problema mais amplo de desinformação, desinformação e ‘notícias falsas’, além de descompactar como as narrativas são construídas e compartilhadas, e deve priorizar as comunidades de base e os influenciadores que trabalham com essas comunidades.

Existe uma falta de compreensão pública do que é possível com as novas formas de manipulação de vídeo e áudio. Deveríamos priorizar primeiro o que as pessoas já sabem ou presumem sobre os deepfakes antes de desenvolver esse entendimento sem alarde, por exemplo, usando o poder de influenciadores como satiristas do deepfake para explicar como funciona. Trabalhar em conjunto com outros projetos, iniciativas, coalizões e agências de verificação de fatos existentes é muito importante não apenas para compartilhar ferramentas e habilidades, mas também para trocar experiências e novas tecnologias.

As ferramentas de detecção precisam ser baratas, acessíveis e aplicáveis ​​para cidadãos e jornalistas

Os participantes, particularmente do mundo do jornalismo e da verificação de fatos, estavam preocupados com a forma como detecção sempre colocaria os jornalistas em desvantagem. Eles já enfrentam as dificuldades de encontrar e desmembrar declarações falsas, especialmente em redes fechadas, sem falar em novas formas de manipulação, como o deepfakes, para as quais não possuem as ferramentas de detecção.

Cada vez mais investimentos estão sendo utilizados para o desenvolvimento de ferramentas para detectar deepfakes, usando novas formas de análise forense de mídia e adaptações dos mesmos algoritmos usados ​​para criar a mídia sintética. Mas existem dúvidas sobre para quem essas ferramentas estarão disponíveis e como os problemas existentes de ‘shallowfakes’ também serão tratados. Os jornalistas também reiteraram que plataformas como YouTube e WhatsApp não resolverão problemas atuais – você ainda não pode verificar facilmente se um vídeo existente é um ‘shallowfake’, um vídeo que é simplesmente ligeiramente editado ou apenas renomeado e compartilhado, alegando outra coisa. . Na ausência de ferramentas para detectar o enorme volume existente de “shallowfakes – por exemplo, uma pesquisa de vídeo reversa no WhatsApp -, a detecção de rastreios profundos é um luxo.

Grandes empresas e plataformas como o Facebook devem investir em ferramentas de detecção claras e transparentes e confiáveis além de acessíveis a vários níveis de jornalistas e cidadãos. Quanto mais cedo as falhas e outras falsificações forem detectadas, melhor.

Boa parte da acessibilidade são melhores ferramentas forenses de mídia baratas e disponíveis para todos – que desafiam os incentivos econômicos criados para sintetizar a falsidade e não detectá-la. Isso precisa ser combinado com a capacidade jornalística para novas formas de verificação.

Plataformas como Facebook, YouTube, Google e Whatsapp precisam fazer parte da solução com transparência e apoio para separar a verdade da falsidade.

Plataformas, aplicativos de mensagens fechadas, mecanismos de pesquisa, redes de mídia social e sites de compartilhamento de vídeo também serão os locais onde essas manipulações são compartilhadas. Alguns tópicos e perguntas que devemos discutir são: Qual o papel que as redes sociais e outras plataformas devem desempenhar no combate a falsificações profundas? Quais devem ser os limites? Como eles devem fornecer acesso aos recursos de detecção? Como eles devem sinalizar aos usuários que o conteúdo é verdadeiro ou falso ou, de alguma forma, manipulado de maneiras que eles não podem ver? Eles devem remover certos tipos de conteúdo manipulado e sob quais critérios?

Os participantes observaram que as plataformas precisam ser mais transparentes no que se refere notícias falsas são distribuídas nelas. Há que se repensar até que ponto as mensagens criptografadas podem chegar e como controlar a disseminação de informações erradas e desinformação.

****

Para mais informações sobre as recomendações da WITNESS para preparação para deepfakes, consulte: wit.to/Synthetic-Media-Deepfakes

Para mais informações sobre as recomendações da WITNESS sobre o que os jornalistas precisam preparar (globalmente), consulte: https://lab.witness.org/projects/osint-digital-forensics/

TRIGGER WARNING

This report contains depictions of war, abuse, examples of, or links to content that features, hate speech.

Trigger Warning

Help WITNESS create more human rights change

Join us by subscribing to our newsletter.

Support WITNESS