A Associação Nacional de Jornais (ANJ) aderiu à Content Authenticity Initiative (CAI), liderada pela Adobe. A CAI é uma comunidade global de empresas de tecnologia, meios de comunicação e organizações não-governamentais (ONGs) que garante a autenticidade do conteúdo audiovisual por meio de um protocolo de segurança criptografado como combate à desinformação. Trata-se de um consórcio de cerca de 1 mil membros, trabalhando coletivamente para criar um conjunto de padrões que afirmam poder garantir a autenticidade do conteúdo digital.
A Adobe formou o grupo em 2019, mas sua atividade se tornou mais urgente à medida que novas ferramentas de Inteligência Artificial (IA) tornaram a tecnologia mais sofisticada e acessível no ano passado, informa o site Tech Brew. Isso resultou em vídeos e fotos virais de notícias falsas, como uma do ex-presidente dos Estados Unidos Donald Trump sendo preso em Manhattan, e levou a Getty Images (que é membro do CAI) a proibir o upload de conteúdo gerado por IA em sua plataforma.
O projeto promove um padrão de código aberto que aplica um selo de certificação às informações de origem e atribuição (metadados) e também registra qualquer modificação feita na fotografia ou vídeo. O sistema, baseado em métodos criptográficos, permite visualizar o histórico do conteúdo e verificar se o conteúdo sofreu alguma alteração, preservando a privacidade e a segurança dos autores das imagens.
“Estamos prestes a cruzar o abismo em termos de fotorrealismo e realismo de áudio, onde [a detecção] se tornará efetivamente impossível, certamente em termos de escala de mídia social”, diz Andy Parsons, diretor sênior da CAI. Apenas alguns meses atrás, os especialistas aconselhavam os consumidores de mídia mais experientes a olhar para as orelhas ou mãos de um assunto fotográfico como uma forma de detectar potencialmente se eram criações de IA – essas partes do corpo tendiam a ser pontos problemáticos para a tecnologia – mas técnicas como que se tornou obsoleto rapidamente, muitas vezes em questão de semanas, afirma Parsons.
Detectar deepfakes é um “constante jogo de gato e rato”, disse o executivo da CAI. Apenas alguns meses atrás, os especialistas aconselhavam os consumidores de mídia mais experientes a olhar para as orelhas ou mãos de um assunto fotográfico como uma forma de detectar potencialmente se eram criações de IA – essas partes do corpo tendiam a ser pontos problemáticos para a tecnologia – mas técnicas como que se tornou obsoleto rapidamente, muitas vezes em questão de semanas, disse ele.
A CAI está focada em um padrão que afirma certificar a autenticidade de uma foto ou vídeo da fonte, usando “hashing de ativos criptográficos para fornecer assinaturas verificáveis e invioláveis”, que seriam então corrigidas para refletir quaisquer alterações. O grupo compara o padrão a um “rótulo nutricional” para conteúdo digital. “Você pode comprar alimentos açucarados se quiser e usá-los com moderação”, afirma Parsons.
O padrão CAI, segundo Santiago Lyon, chefe de divulgação e educação da CAI, é aplicado a todos os conteúdos digitais, fotos, vídeos, gravações de som e documentos. “Em todos os casos, ele informa ao usuário quando, onde e por quem o conteúdo foi capturado ou gravado e, em seguida, rastreia as alterações no arquivo original”, diz. “Todas essas informações são disponibilizadas ao público em um formato amigável, para que ele possa tomar sua decisão sobre a autenticidade do conteúdo”.
“A ANJ apoia e se associa às iniciativas que reconhecidamente combatem a desinformação, incluindo as que, como a CAI, fazem uso de tecnologia para tanto, garantindo o direito à informação verídica”, disse o presidente-executivo da ANJ, o jornalista Marcelo Rech. “A ANJ estimula que seus associados também venham a aderir a iniciativa”. A adesão à CAI é gratuita.