No outono passado, os usuários do Tumblr elogiaram o filme “Goncharov”, de Martin Scorsese, de 1973, estrelado por Robert De Niro e Al Pacino. Eles saudaram o clássico menos conhecido de Scorsese como o maior filme de máfia já feito. Esteve à frente do seu tempo, nunca merecendo a aclamação que merecia.
Até agora, todos devemos saber que “Goncharov” não é um filme real, embora o próprio Scorsese tenha entrado na piada. É apenas um meme do Tumblr que se transformou em uma piada em todo o site, enquanto os usuários trabalhavam no Google Docs compartilhado, trabalhando juntos de forma colaborativa para “sim, e” uns aos outros com tanta sinceridade e precisão que o filme inventado poderia parecer legítimo.
À medida que a geração de imagens de IA melhora, a internet se sente um pouco como o Tumblr no momento de “Goncharov”. Estamos a criar novas realidades coletivas, só que, desta vez, estamos acidentalmente a gerá-las simplesmente postando sem pensar muito.
Quando o gerador de imagens de IA Midjourney abriu o acesso ao modelo Midjourney 5 há duas semanas, suas saídas hiper-realistas rapidamente se tornaram virais. Algumas das imagens resultantes ilustraram os perigos dessas ferramentas facilmente acessíveis, como uma série de fotos falsas retratando a prisão de Donald Trump.
O dramático conjunto de imagens mostra Trump resistindo à prisão à força, depois fugindo correndo de um esquadrão de policiais, entre outras cenas. As imagens, que se espalharam como fogo pela internet, foram geradas por Eliot Higgins, fundador do veículo de jornalismo investigativo Bellingcat. Os tweets iniciais de Higgins deixavam claro que ele estava apenas brincando com geradores de imagens de IA, mas eles rapidamente se espalharam sem o contexto que o acompanhava.
Outras imagens virais de IA são mais benignas, como uma foto amplamente divulgada do Papa Francisco II servindo um look de alta moda em um deslumbrante casaco branco da Balenciaga. Apenas um dos tweets virais sobre a imagem foi visto mais de 26 milhões de vezes.
OKAAYYY pic.twitter.com/MliHsksX7L
— leonardo (@skyferrori) March 25, 2023
Esse nem foi o único meme de IA relacionado à Balenciaga a viralizar na última semana. Um criador usando o nome demonflyingfox tem usado imagens Midjourney, fala Eleven Labs e animação D-ID para fazer vídeos surreais de paródia alimentados por IA. Seu vídeo mais difundido é “Harry Potter by Balenciaga”, um anúncio de alta moda em que interpretações sintéticas de personagens da franquia dizem coisas como: “Você é Balenciaga, Harry”.
Demonflyingfox disse ao TechCrunch que ele intencionalmente tenta tornar seus vídeos estranhos o suficiente para que ninguém possa acidentalmente acreditar que eles são reais. (Não é preciso um espectador experiente para saber que Joe Rogan nunca entrevistou Jesus Cristo e Dumbledore lamentavelmente não usou jaqueta de couro e óculos escuros nos filmes de Harry Potter.) Ele também usa deliberadamente Midjourney 4 em vez do software atualizado para que seus personagens não pareçam tão realistas que possam parecer críveis.
“O que estou fazendo é tão obviamente falso que não me preocupo em espalhar desinformação, nem é minha intenção”, disse demonflyingfox. “Mas sei do poder das ferramentas e que é muito fácil fazê-lo agora.”
Quanto mais crível for a premissa, maior a probabilidade de registrarmos uma imagem sintética como fato. Se você não é um especialista em trajes papais, pode acreditar que o Papa tem uma jaqueta puffer branca para passeios de inverno – este é o mesmo Papa cujo álbum de prog rock foi revisado na Pitchfork, e que já trabalhou como segurança de boate na Argentina.
Até a supermodelo Chrissy Teigen se apaixonou pela piada. “Eu pensei que a jaqueta puffer do papa era real e não pensei duas vezes”, tuitou. “De forma alguma estou sobrevivendo ao futuro da tecnologia.”
As imagens da prisão de Trump também se tornaram virais, mas podem ser verificadas com rapidez suficiente por qualquer pessoa disposta a verificar sua linha do tempo do Twitter em busca de evidências da notícia real. Esse processo é um pouco menos óbvio para eventos históricos gerados por IA.
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
Apenas alguns dias atrás, o usuário do Reddit u/Arctic_Chilean postou um conjunto de fotos geradas por IA no subreddit Midjourney, alegando que elas ilustraram “The 2001 Great Cascadia 9.1 Earthquake and Tsunami”, que atingiu os EUA e o Canadá. Dentro dos limites desse subreddit, que é dedicado a experimentos com as ferramentas de IA do Midjourney, é óbvio que o Grande Terremoto de Cascadia não é um evento real. Mas se r/Midjourney é apenas um dos muitos subreddits no seu feed, é fácil consumir as imagens sem pensar duas vezes.
“Eu era o único que estava tipo: ‘Como é que eu não me lembro disso acontecendo?’ … até ver o subreddit?”, escreveu um usuário do Reddit.
As imagens paralelas à realidade se aproximam o suficiente para que possam ser verdadeiras. A zona de subducção de Cascadia é uma verdadeira falha perto do noroeste do Pacífico e o local de um terremoto maciço e devastador em 1700. As pessoas na região temem que um desastre dessa escala possa ocorrer novamente em nossa vida, um conhecimento que impregna as cenas geradas pela IA de possíveis eventos futuros ainda a serem revelados com uma sensação de pressentimento.
Às vezes, ferramentas de IA como ChatGPT e Bing AI “alucinam” – um termo usado quando respondem com confiança a perguntas com informações falsas. Inundados por um mar de imagens sintéticas, podemos estar todos à beira de alucinar coletivamente.
“Eu estava prestes a descartá-lo por postar notícias antigas neste subreddit lol”, comentou um Redditor em r/midjourney. “Estes parecem tão reais que é insano.”
As comunidades da Internet tendem a convergir em torno de uma ideia de nicho e a construir uma história aprofundada sobre ela, como um ato de construção colaborativa do mundo (ver: “Goncharov”). Naturalmente, a mesma coisa aconteceu com esses falsos eventos históricos, quando os usuários do Reddit começaram a criar sua própria história sobre como o terremoto de 2001 impactou a política global.
“Apesar da magnitude e devastação causada pelo Grande Terremoto de Concórdia de 2001, parece que, 10 anos depois, poucas pessoas se lembram do evento”, escreveu outro usuário em uma notícia inventada, nomeando erroneamente o terremoto que nunca aconteceu. “Isso provavelmente se deve a uma combinação de fatores, incluindo a guerra global contra o terrorismo, a Guerra do Iraque e a Grande Recessão.”
O Redditor que originalmente postou as imagens teorizou sobre como um grande desastre pouco antes do 9/11 afetaria a Guerra ao Terror, postulando que o impacto econômico da calamidade poderia minar o apoio à invasão do Iraque.
À medida que os geradores de imagens de IA amplamente disponíveis se tornam rapidamente mais sofisticados, suas criações podem superar nossa capacidade de se ajustar a uma enxurrada de imagens críveis, mas completamente falsas. Para o bem e para o mal, agora é possível criar o nosso próprio “Goncharov” num instante, transformando qualquer ficção nebulosa em algo tangível e colocando-a online.
Embora muitas dessas criações sejam inofensivas, não é difícil imaginar como imagens sintéticas podem manipular o conhecimento público de eventos atuais ou históricos.
Acontece que “Balenciaga Pope” foi uma criação de um homem de 31 anos que disse ao BuzzFeed News que não havia considerado as consequências das imagens de IA. “Definitivamente vai ficar sério se eles não começarem a implementar leis para regulamentá-lo”, disse ele.
De fato, legisladores no Reino Unido e em alguns estados dos EUA decretaram proibições à pornografia não consensual e deepfake de IA. Mas memes como o Grande Terremoto de Cascadia e o Papa Balenciaga não são tão intrinsecamente prejudiciais e não enfrentarão barreiras regulatórias tão cedo.
As imagens geradas por IA ainda não são perfeitas. Os sinais de rua parecem estar escritos em Simlish, e há mais mãos de três dedos do que você encontraria no mundo natural. Normalmente, se você olhar com atenção o suficiente para uma imagem gerada por IA, você pode encontrar alguma aberração estranha, um conjunto de pixels que diz que algo está errado. Mas está cada vez mais difícil distinguir o que é real ou imaginário – e mais difícil imaginar o que vem a seguir.
Fonte: Techcrunch