Notícias

Associação Nacional de Jornais adere a iniciativa da Adobe

Content Authenticity Initiative busca assegurar autenticidade de conteúdos audiovisuais como combate à desinformação

A Associação Nacional de Jornais (ANJ) se juntou à Content Authenticity Initiative (CAI), chefiada pela empresa Adobe. O projeto visa garantir a autenticidade de conteúdos audiovisuais para combater a desinformação. Constituída por empresas de tecnologia, meios de Comunicação e organizações não governamentais (ONGs), a CAI utiliza um protocolo de segurança criptografado para alcançar seus objetivos.

“A ANJ apoia e se associa às iniciativas que reconhecidamente combatem a desinformação, incluindo as que, como a CAI, fazem uso de tecnologia para tanto, garantindo o direito à informação verídica”, explica o presidente-executivo da ANJ, o gaúcho Marcelo Rech. Segundo ele, o órgão promove que associados também ingressem à CAI, o que é gratuito.

Mecanismo de autenticação

A CAI proporciona um padrão de código aberto que dá um selo de verificação às informações de origem e atribuição – metadados – e também cataloga quaisquer modificações feitas em fotografias ou vídeos. Alicerçado em métodos criptográficos, o sistema possibilita ver o histórico do conteúdo e conferir se foi de algum modo alterado, mantendo preservadas a privacidade e a segurança dos autores das imagens. 

O mecanismo empregado age por meio de “hashing de ativos criptográficos para fornecer assinaturas verificáveis e invioláveis”, que seriam ajustadas para refletirem qualquer sinal de alteração. De acordo com o chefe de Divulgação e Educação da CAI, Santiago Lyon, o padrão do grupo é aplicado a todos os meios digitais. “Em todos os casos, ele informa ao usuário quando, onde e por quem o conteúdo foi capturado ou gravado e, em seguida, rastreia as alterações no arquivo original”, descreve. Ainda, ele conta que as informações são liberadas ao público para que este possa decidir acerca da veracidade do material.

Sobre a CAI

A Adobe formou o grupo em 2019, mas seu trabalho se tornou mais urgente à medida que novas ferramentas de Inteligência Artificial (IA) tornaram a tecnologia mais sofisticada e acessível no ano passado. Exemplos dessa realidade são os deepfakes – vídeos e fotos virais fabricadas em computador -, o que levou o banco de imagens Getty Images, membro do CAI, a proibir o upload de conteúdo gerado por IA em sua plataforma.

“Estamos prestes a cruzar o abismo em termos de fotorrealismo e realismo de áudio, onde (a detecção) se tornará efetivamente impossível, certamente em termos de escala de mídia social”, alerta Parsons. Identificar os deepfakes é um “constante jogo de gato e rato”, explica. Alguns meses atrás, especialistas aconselhavam consumidores de mídia mais experientes a olharem para as orelhas ou mãos como uma forma de detectar potencialmente se eram criações de IA, já que essas partes do corpo tendiam a ser pontos problemáticos para a tecnologia. Todavia, técnicas como essa se tornaram obsoletas rapidamente, muitas vezes em questão de semanas, adverte Parsons.

Compartilhar:

ÚLTIMAS NOTÍCIAS

Relacionados

CADASTRE-SE
Captcha obrigatório
Seu e-mail foi cadastrado com sucesso!

Aviso: se você optou por parar de receber nossos e-mails e deseja voltar à nossa lista, ou está com dificuldades para se cadastrar, entre em contato com a Redação pelo formulário Fale Conosco e informe seu nome e o e-mail que deseja incluir.