DOE AGORA Qualquer valor

Opinião: Um FAQ do futuro – como lutamos e derrotamos os deepfakes

Opinião: Um FAQ do futuro – como lutamos e derrotamos os deepfakes

Foto AP/Matt Rourke; ilustração de Jim Cooke/Los Angeles Times

Lance sua mente adiante. É 8 de novembro de 2028, um dia após outra eleição presidencial . Este correu bem – sem alegações de fraude desenfreada, sem qualquer vestígio significativo de trapaça – devido em grande parte à derrota dos deepfakes, o mais novo inimigo da democracia.

Esse futuro é possível? Até agora, nem o governo nem a indústria tecnológica chegaram a acordo sobre barreiras de proteção eficazes contra deepfakes. Mas esta FAQ (de cinco anos no futuro) mostra que os acontecimentos de 2024 podem muito bem forçar a questão — e que uma solução é possível.

Por que demorou tanto para encontrar uma maneira eficaz de combater os deepfakes?

No final de 2022, apareceu um sofisticado software de IA de baixo custo que facilitou a criação de áudio, vídeo e fotografias realistas – os chamados deepfakes. À medida que estes programas generativos de IA melhoraram rapidamente, ficou claro que o conteúdo deepfake seria um perigo para a democracia.

Deepfakes políticos – tanto em áudio quanto em vídeo – logo surgiram: o presidente Biden anunciando que os americanos seriam convocados para lutar na Ucrânia. Uma foto de Donald Trump abraçando e beijando o Dr. Anthony Fauci. A senadora Elizabeth Warren (D-Mass.) dizendo à MSNBC que os republicanos não deveriam ter permissão para votar em 2024. Eric Adams, o prefeito monolíngue de Nova York, falando espanhol, iídiche e mandarim em chamadas automáticas produzidas por IA.

Muito rapidamente, a Casa Branca , a União Europeia e as principais empresas de tecnologia lançaram propostas abrangentes de regulamentação de IA que incluíam “marcas d’água” no conteúdo de IA – inserindo rótulos de identificação, um pedaço permanente de código de computador, no arquivo digital de qualquer arquivo gerado por IA. conteúdo para identificar sua origem artificial.

Mas a definição de regras de IA revelou-se complexa e a rotulagem exemplificou os dilemas: a marca de água da IA ​​seria legalmente exigida? Como isso seria aplicado? Já em 2023, algumas câmeras de celulares usavam IA no processamento de imagens. Que quantidade de entrada de IA no conteúdo exigiria um identificador? Será que uma influenciadora de beleza do Instagram precisaria colocar uma marca d’água em suas selfies ajustadas ao rosto?

As complicações foram tantas que nenhum sistema foi amplamente adotado.

O que mudou?

O maior ataque deepfake coordenado da história ocorreu um dia após as eleições de novembro de 2024. Todos os canais de mídia social dos EUA foram inundados com áudio, vídeo e imagens falsas retratando fraudes eleitorais em uma dúzia de estados decisivos, conteúdo altamente realista que, em poucas horas, foi visto por milhões de pessoas. Os esforços de desmascaramento por parte da mídia e do governo foram prejudicados por um fluxo constante de novos deepfakes, principalmente fabricados na Rússia, Coreia do Norte, China e Irão. O ataque gerou um caos jurídico e civil que durou até a primavera de 2025.

ANÚNCIO

No entanto, nenhum dos primeiros esforços de autenticação foi adotado?

Correto. Na verdade, o avanço veio no início de 2026, por meio de um grupo de trabalho de jornalistas digitais de organizações de notícias dos EUA e internacionais. O objetivo deles era encontrar uma maneira de manter os deepfakes fora das reportagens, para que pudessem proteger a credibilidade que a grande mídia ainda mantinha. Foi uma tarefa lógica: os jornalistas são historicamente implacáveis ​​na punição dos seus pares por mau comportamento, atacando até mesmo os menores desvios do rigor factual.

As organizações jornalísticas formaram a Aliança FAC – “Conteúdo Autenticado por Fatos” – com base numa ideia simples: já havia demasiada falsificação de IA à solta no mundo para tentar impor um sistema de marca de água para desinformação e desinformação. E mesmo as regras de rotulagem mais rigorosas seriam simplesmente ignoradas pelos maus intervenientes. Mas seria possível colocar marcas d’água em partes de conteúdo que não fossem deepfakes.

E assim nasceu o FACStamp voluntário em 1º de maio de 2026.

Qual é a aparência de um FACStamp?

Para os consumidores, o conteúdo FACStamped exibe um pequeno ícone “FAC” em um canto da tela ou inclui um aviso FAC de áudio. O sinal pode ser desligado pelo usuário ou pode ser configurado para aparecer por apenas cinco ou 10 segundos no início de um fluxo de mídia.

Os FACStamps são totalmente voluntários. Mas todos os membros da Aliança FAC comprometeram-se a que os seus relatórios na Internet, radiodifusão e físicos publicassem apenas meios de comunicação com carimbo FACS nas suas secções de notícias.

Como o conteúdo se qualifica para um FACStamp?

Os mais novos telefones, tablets, câmeras, gravadores e computadores desktop incluem software que insere automaticamente o código FACStamp em cada parte do conteúdo visual ou de áudio à medida que é capturado, antes que qualquer modificação de IA possa ser aplicada. Isto prova que a imagem, som ou vídeo não foi gerado por IA. Você também pode baixar o aplicativo FAC, que faz o mesmo para equipamentos mais antigos. O FACStamp é o que os tecnólogos chamam de “frágil”: na primeira vez que um arquivo de imagem, vídeo ou áudio é falsificado pela IA, o carimbo desaparece.

ANÚNCIO

Mas a IA costuma ser usada de maneira adequada para fazer coisas como reduzir o ruído de fundo em um arquivo de áudio. O conteúdo FacStamped não pode ser editado?

Certamente pode. Mas para reter o FACStamp, seu computador deve estar conectado ao FAC Verification Center, uma organização sem fins lucrativos. Os computadores do centro detectam se a edição é pequena – como corte ou até mesmo ajuste cosmético do rosto – e o carimbo permanece. Qualquer manipulação maior, desde a troca de rostos até a falsificação de fundos, e o FACStamp desaparece.

Como os FACStamps se espalharam além do jornalismo?

Descobriu-se que muitas pessoas poderiam usar o FACStamp. Os varejistas da Internet adotaram os FACStamps para vídeos e imagens de seus produtos. Os indivíduos logo seguiram o exemplo, usando FACStamps para vender produtos on-line – quando potenciais compradores estão avaliando uma caminhonete usada ou um sofá de segunda mão, é reconfortante saber que a imagem não foi divulgada ou apagada pela IA.

Em 2027 o selo começou a aparecer nas redes sociais. Qualquer pai pode gerar artificialmente uma imagem perfeitamente realista de sua família feliz em frente à Torre Eiffel e publicá-la ou enviá-la por e-mail para amigos invejosos. Um FACStamp prova que a família realmente esteve lá.

Perfis de aplicativos de namoro sem FACStamps estão finalmente se tornando raros. Os aplicativos de videoconferência têm opções FAC para garantir que todos na chamada sejam reais. E para os influenciadores, é cada vez mais difícil reivindicar “autenticidade” sem pelo menos um FACStamp ocasional.

Até a indústria de IA apoia o uso de FACStamps. Durante o treinamento na Internet, se um programa de IA absorver quantidades excessivas de dados gerados pela IA, em vez de dados autênticos, ele poderá sofrer um “colapso do modelo” e tornar-se extremamente impreciso. Portanto, o FACStamp ajuda as empresas de IA a treinar seus modelos exclusivamente com base na realidade.

ANÚNCIO

Qual é o próximo?

Um grupo bipartidário de senadores e membros da Câmara planeia introduzir a Lei do Direito à Realidade quando o próximo Congresso for inaugurado, em Janeiro de 2029. Ela exigirá a utilização de FACStamps em vários sectores, incluindo governo local, sites de compras e ofertas de investimento e imobiliário. A falsificação de um FACStamp se tornaria crime. As sondagens indicam um amplo apoio público à lei e a Aliança FAC já iniciou uma campanha de branding.

O slogan: “ Isso é um FAC? 

Michael Rogers é um autor e futurista cujo livro mais recente é “Email From the Future: Notes From 2084”.

Comentários

Ebook

Postagens mais visitadas