Não existem soluções mágicas para proteger o uso indiscriminado do conteúdo jornalístico pelas ferramentas de Inteligência Artificial (IA) generativa, mas podem ser tomadas medidas de proteção. A afirmação é de John Reichertz, Consultor Executivo da Content Authenticity Initiative (CAI), uma associação global de empresas e organizações de tecnologia e meios de comunicação, entre elas a Associação Nacional de Jornais (ANJ), que garante a autenticidade dos conteúdos através de um protocolo de segurança criptografado.
Entre as medidas, estão deixar claro quem é o autor e declarar que não quer que a IA aprenda a partir do conteúdo produzido, diz Reichertz. “Ambas as coisas podem ser feitas de forma segura, utilizando as credenciais de conteúdo CAI, que contemplam dar às publicações formas de se certificarem como autores e de anexar ao conteúdo uma mensagem explícita de ‘não aprender’”, completa o executivo em entrevista ao site da ANJ.
Infelizmente, segundo ele, esses cuidados não garantem que a IA não utilizará o conteúdo. Por isso, continua Reichertz, devem ser tomadas medidas para “encorajar a indústria da IA generativa a adotar uma abordagem ética na produção de conteúdos de IA e para encorajar os legisladores e os tribunais a enquadrar as leis de forma a proteger os direitos e interesses dos autores face aos desafios sem precedentes da IA”.
Confira abaixo a íntegra da entrevista:
Associação Nacional de Jornais (ANJ): A IA é uma ameaça para o jornalismo?
John Reichertz: A IA, no sentido mais lato, pode ser e é uma ferramenta poderosa para o jornalismo quando é utilizada de forma ética e legal. Muitos dos pontos mais delicados destas definições de utilização legal e ética estão em desenvolvimento agora, uma vez que os desafios apresentados pela IA são, em muitos casos, sem precedentes. Mas é evidente que a IA também pode ser uma enorme ameaça para o jornalismo. A Partnership on AI, que promove a governança responsável e as melhores práticas em matéria de IA, elaborou uma lista de 75 ferramentas de IA Airtable (Airtable – AI Tools for Local Newsrooms Database) que estão em uso atualmente em redações locais. Entre algumas das funções das ferramentas, estão: análise de audiência, otimização de histórias, moderação de conteúdos, transcrição, verificação de fatos, personalização, edição de cópias, alertas de eventos, geração de texto, descoberta de conteúdos sociais. Portanto, existe uma vasta gama de utilizações positivas da IA. Mas a IA também pode ser uma ameaça. A IA generativa pode produzir imagens, vídeos e gravações de som aparentemente reais, criando histórias inteiramente fictícias que são quase impossíveis de verificar. Todo mundo sabe que as pessoas têm tendência a acreditar no que veem, pelo que este tipo de desinformação, quando aplicado a assuntos públicos ou mesmo privados, é muito perigoso. Uma fotografia, um vídeo ou uma gravação falsa de um candidato político fazendo algo impróprio ou ilegal, pouco antes de uma eleição, pode influenciar o resultado. Este é o micro-efeito. É um perigo muito atual, uma vez que, com as ferramentas de IA, quase qualquer pessoa pode produzir desinformação aparentemente real. Mas o problema macro é quando as pessoas começam a sentir que não conseguem distinguir notícias reais de desinformação fabricada por IA. Nessa altura, começam a desconfiar de todas as notícias. Esta é uma ameaça existencial para o jornalismo. As pessoas vão aos sites de notícias apenas porque essas plataformas têm credibilidade, porque se pode acreditar nelas. Esse é o valor fundamental. Se isso se perder, as pessoas não terão qualquer incentivo para visitar os sites de notícias. A Content Authenticity Initiative (CAI), uma coligação interprofissional com mais de 1.500 membros, incluindo um grande número de organizações noticiosas, promove uma norma de proveniência para atacar o problema da credibilidade. Com base na transparência, a norma dá ao público acesso a informações sobre a origem e o histórico de cada conteúdo – um conceito semelhante ao dos rótulos nutricionais dos produtos alimentares embalados. No caso de uma fotografia noticiosa, por exemplo, as credenciais indicariam se foi gerada por IA. Se fosse uma fotografia real, permitiria às pessoas saber quando, onde e por quem foi tirada, e também sobre quaisquer alterações efetuadas no processo de edição, incluindo as que utilizam IA. As credenciais CAI são uma norma aberta que utiliza encriptação para proteger contra adulterações. Muitas organizações estão incluindo a norma nos seus produtos e processos, abrindo caminho para uma ampla adoção num futuro próximo.
ANJ: Os jornais podem proteger-se da ingestão dos seus conteúdos pela IA? Como a Content Authenticity Initiative (CAI) pode ajudar nesta proteção?
Reichertz: Não existem soluções mágicas para nos protegermos contra a utilização do nosso conteúdo pela IA. Mas podem ser tomadas medidas. Estas incluem: deixar claro que você – uma publicação ou jornalistas – é o autor do conteúdo e declarar que não quer que a IA aprenda a partir de seu conteúdo. Ambas as coisas podem ser feitas de forma segura, utilizando as credenciais de conteúdo CAI, que contemplam dar às publicações formas de se certificarem como autores do conteúdo e de anexar uma mensagem explícita de “não aprender” ao conteúdo. Mas isso, por si só, não garante que a IA não utilizará o conteúdo. Devem ser tomadas medidas para encorajar a indústria da IA generativa a adotar uma abordagem ética na produção de conteúdos de IA e para encorajar os legisladores e os tribunais a enquadrar as leis de forma a proteger os direitos e interesses dos autores face aos desafios sem precedentes da IA.
ANJ: É possível monitorar o conteúdo dos jornais utilizado pelos sistemas de IA?
Reichertz: Quando se fala de IA generativa, em que um novo conteúdo é gerado com base num conjunto de conteúdos existentes, seria quase impossível rastrear a utilização de um conteúdo específico sem a divulgação pelo sistema de IA em questão. Dito isso, poderia ser possível estabelecer uma ligação se o conteúdo da IA fosse feito de forma a imitar um determinado estilo, voz ou marca de uma publicação, mas essas são águas jurídicas muito turvas que ainda estão a ser testadas nos tribunais e abordadas nas legislaturas. Parece que a maior preocupação de muitos no setor é que os sistemas de IA, ao recorrerem a uma grande variedade de fontes, consigam produzir um conteúdo que concorra com o conteúdo original, produzido a grande custo pelas organizações noticiosas.
ANJ: Os jornais podem impedir que os rastreadores de IA acessem seus conteúdos? Como é que isso pode ser feito?
Reichertz: Tecnicamente, os rastreadores de IA podem acessar a todos os conteúdos digitais que estejam publicamente disponíveis. Tal como já foi referido, a única forma de proteção contra o crawling envolve as medidas legais, éticas e probatórias já referidas.
ANJ: Como é que a IA pode ser utilizada de forma complementar?
Reichertz: A IA já está sendo utilizada pela indústria jornalística para realizar uma vasta gama de tarefas, tais como compreender ou projetar os interesses de utilização dos conteúdos do público, alertar os jornalistas para histórias em desenvolvimento, classificar grandes quantidades de conteúdos para uma variedade de objetivos, transcrever áudio, traduzir automaticamente etc. A lista de parcerias em matéria de IA que mencionei antes apresenta um balanço completo das empresas que oferecem ferramentas de IA, o que fazem e por quem são utilizadas. Os jornalistas precisam compreender como funcionam essas ferramentas e as utilizar de forma responsável. Entre outras questões, devem tomar medidas para garantir que as ferramentas não são utilizadas de forma a invadir a privacidade. Devem também ter o cuidado de garantir que os sistemas de IA não sejam utilizados de forma a discriminar as pessoas com base na sua raça, gênero, etnia etc. As ferramentas são poderosas e os jornalistas precisam compreender as consequências do aproveitamento desse poder.
ANJ: A IA já é uma realidade como ferramenta para tirar partido dos assinantes? Como é que estas ferramentas devem ser utilizadas?
Reichertz: Sem dúvida. As ferramentas de IA são imensamente úteis para identificar potenciais assinantes, para os atrair, para os manter satisfeitos e para não perdê-los. As ferramentas identificam padrões de consumo relacionados com a subscrição e também dão aos jornalistas informações sobre os tipos de conteúdos, autores e temas que estão relacionados com os sinais de envolvimento com os conteúdos e a fidelidade ao site, que são fundamentais para convencer as pessoas a contratarem uma assinatura.
ANJ: Como tem sido o engajamento à CAI?
Reichertz: No primeiro semestre de 2023, impulsionado em parte pela erupção da preocupação com a IA, houve aceleração no o apoio à CAI, assim como na adoção e implementação de suas soluções de transparência sobre a origem o histórico do conteúdo digital. Há muitos avanços a relatar. Em primeiro lugar, ultrapassamos a marca de 1.500 membros no mundo – 105 deles na América Latina e 7 no Brasil, incluindo ANJ, Folha de S.Paulo, Estado de S.Paulo, Comprova, Rede Gazeta, Correio do Povo, Folha de Boa Vista. Novos membros vêm de uma variedade de setores. Eles incluem startups de IA, empresas relacionadas à fotografia, da sociedade civil e empresas de mídia.
ANJ: O sistema tem sido atualizado?
Entre outras novidades, foi lançada a versão 1.3 da especificação técnica universal da iniciativa que: 1) incorpora novos formatos como WAV, MOV e outros; 2) inclui notificações de fonte de conteúdo ou elementos de conteúdo gerados com IA generativa; 3) habilita a possibilidade de avisar que o conteúdo não deve ser usado como modelo pela IA – “não treine”.
Ao mesmo tempo, várias implementações de autenticação de proveniência de conteúdo digital já começaram. O The Wall Street Journal, o Globe and Mail, do Canadá, e a AFP/EPA já lançaram esforços para criar a infraestrutura para implementar autenticação de conteúdo digital e apresentação de credenciais de conteúdo ao público.