Cuidado com o que você anda assistindo na web. São grandes as chances de que os vídeos recebidos do YouTube ou pelo WhatsApp sejam falsos – aliás, como boa parte das notícias que circulam pelas redes sociais. A chamada IA Generativa, que todo mundo passou a comentar em 2023 com o sucesso do ChatGPT (vejam este post), penetrou incontrolável no mundo dos sons e imagens digitais. E dá-lhe fake videos.

Segundo o site japonês Nikkei, uma ferramenta de Gen-AI lançada recentemente na China permite produzir nada menos do que 700 mil imagens manipuladas por dia! O estrago está sendo tão grande que Sony, Nikon e Canon – três das maiores fabricantes mundiais de câmeras – anunciaram o lançamento este ano de modelos capazes de “driblar” os conteúdos falsos. As novas câmeras terão a capacidade de aplicar “assinaturas digitais” ao material que registrarem, incluindo informações como data, horário, local e nome do fotógrafo (ou videógrafo).

O alarme soou em meados do ano, quando se espalharam vídeos de líderes políticos afirmando barbaridades e fotos de outros com roupas e/ou expressões totalmente inverossímeis – nem o Papa escapou, como se vê na imagem fake acima. Tempos atrás, já haviam circulado imagens de celebridades cujos autores utilizaram truques de sincronismo para fazê-las dizer palavras que nunca disseram. As técnicas de fraudar conteúdos audiovisuais vêm evoluindo rapidamente; algumas delas já estão disponíveis até para crianças com seus smartphones.

Quem produzir imagens fake poderá ser denunciado

Conforme as três fabricantes japonesas, as assinaturas digitais embutidas nas câmeras serão visíveis quando os conteúdos forem compartilhados na internet ou nas redes sociais. A partir de um consórcio entre fabricantes e empresas jornalísticas, foi desenvolvida uma ferramenta chamada Verify, capaz de checar todas as imagens e denunciar as fraudulentas com a expressão “No Content Credentials”.

Se, por exemplo, um fotógrafo enviar imagens a um site de notícias, um servidor irá processar a autenticação, impedindo a reprodução de todas as que tiverem sido produzidas com artifícios de IA. Sony e a agência Associated Press começaram a testar esse recurso em outubro; a Canon iniciou esse processo bem antes (2019), em conjunto com a Reuters, e agora anuncia um aplicativo capaz de detectar se uma imagem foi produzida por um ser humano ou via algoritmo.

Por seu lado, o Google lançou em agosto uma ferramenta que insere marcas d’água sobre conteúdos de IA. E a Intel está aperfeiçoando uma tecnologia que analisa tons de pele para verificar mudanças de fluxo sanguíneo, algo que evidentemente não existe numa imagem produzida digitalmente.

Para quem se interessar, este artigo ajuda a entender melhor o tamanho do problema.

E, para quem entende um pouco inglês, este vídeo detalha casos de fotógrafos e videomakers que já estão sendo “descredenciados” por abusarem dos conteúdos fake.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *