As imagens de IA estão cada vez mais difíceis de detectar.  O Google acha que tem uma solução.

blog

LarLar / blog / As imagens de IA estão cada vez mais difíceis de detectar. O Google acha que tem uma solução.

Aug 19, 2023

As imagens de IA estão cada vez mais difíceis de detectar. O Google acha que tem uma solução.

As imagens geradas pela inteligência artificial estão se tornando mais difíceis de distinguir das reais, à medida que as empresas de tecnologia correm para melhorar seus produtos de IA. À medida que a campanha presidencial de 2024 avança, a preocupação é

As imagens geradas pela inteligência artificial estão se tornando mais difíceis de distinguir das reais, à medida que as empresas de tecnologia correm para melhorar seus produtos de IA. À medida que a campanha presidencial de 2024 avança, aumenta rapidamente a preocupação de que tais imagens possam ser usadas para espalhar informações falsas.

Na terça-feira, o Google anunciou uma nova ferramenta – chamada SynthID – que poderia ser parte da solução. A ferramenta incorpora uma “marca d'água” digital diretamente na imagem que não pode ser vista pelo olho humano, mas pode ser captada por um computador treinado para lê-la. O Google afirmou que sua nova tecnologia de marca d’água é resistente a adulterações, o que a torna um passo fundamental para policiar a disseminação de imagens falsas e retardar a disseminação de desinformação.

Os geradores de imagens de IA estão disponíveis há vários anos e têm sido cada vez mais usados ​​para criar “deepfakes” – imagens falsas que pretendem ser reais. Em março, imagens falsas de IA do ex-presidente Donald Trump fugindo da polícia se tornaram virais online e, em maio, uma imagem falsa mostrando uma explosão no Pentágono causou uma queda momentânea nos mercados de ações. As empresas colocaram logotipos visíveis em imagens de IA, bem como “metadados” de texto anexados indicando a origem de uma imagem, mas ambas as técnicas podem ser cortadas ou editadas com relativa facilidade.

“É evidente que o gênio já saiu da garrafa”, disse em entrevista a deputada Yvette D. Clarke (DN.Y.), que pressionou por uma legislação que exige que as empresas coloquem marcas d'água em suas imagens de IA. “Simplesmente não o vimos maximizado em termos de armamento.”

Por enquanto, a ferramenta do Google está disponível apenas para alguns clientes pagantes de seu negócio de computação em nuvem – e funciona apenas com imagens feitas com a ferramenta geradora de imagens do Google, Imagen. A empresa diz que não exige que os clientes o utilizem porque ainda é experimental.

O objetivo final é ajudar a criar um sistema onde a maioria das imagens criadas por IA possam ser facilmente identificadas usando marcas d'água incorporadas, disse Pushmeet Kohli, vice-presidente de pesquisa do Google DeepMind, o laboratório de IA da empresa, que alertou que a nova ferramenta não é totalmente infalível. “A questão é: temos a tecnologia para chegar lá?”

À medida que a IA melhora na criação de imagens e vídeos, políticos, investigadores e jornalistas receiam que a linha entre o que é real e falso online seja ainda mais desgastada, uma dinâmica que poderá aprofundar as divisões políticas existentes e tornar mais difícil a difusão de informações factuais. A melhoria na tecnologia deepfake ocorre no momento em que as empresas de mídia social estão deixando de tentar policiar a desinformação em suas plataformas.

A marca d’água é uma das ideias que as empresas de tecnologia estão mobilizando como uma forma potencial de diminuir o impacto negativo da tecnologia “generativa” de IA que estão rapidamente divulgando para milhões de pessoas. Em julho, a Casa Branca organizou uma reunião com os líderes de sete das mais poderosas empresas de IA, incluindo o Google e a OpenAI, fabricante do ChatGPT. Todas as empresas se comprometeram a criar ferramentas para colocar marcas d'água e detectar textos, vídeos e imagens gerados por IA.

A Microsoft iniciou uma coalizão de empresas de tecnologia e empresas de mídia para desenvolver um padrão comum para marcas d’água em imagens de IA, e a empresa disse que está pesquisando novos métodos para rastrear imagens de IA. A empresa também coloca uma pequena marca d’água visível no canto das imagens geradas por suas ferramentas de IA. OpenAI, cujo gerador de imagens Dall-E ajudou a lançar a onda de interesse em IA no ano passado, também adiciona uma marca d’água visível. Pesquisadores de IA sugeriram maneiras de incorporar marcas d'água digitais que o olho humano não consegue ver, mas que podem ser identificadas por um computador.

Kohli, o executivo do Google, disse que a nova ferramenta do Google é melhor porque funciona mesmo depois que a imagem foi significativamente alterada – uma melhoria importante em relação aos métodos anteriores que poderia ser facilmente frustrada pela modificação ou mesmo pela inversão de uma imagem.

“Existem outras técnicas para marcas d'água incorporadas, mas não acreditamos que sejam tão confiáveis”, disse ele.