Resultado do prompt “Típica ilustração para um artigo sobre quadrinhos e inteligência artificial” no Midjourney
Da última vez que conversei com o pesquisador Ricardo Araújo, perguntei quanto tempo levaria para uma inteligência artificial escrever um gibi. Ele chutou duas gerações. Duas gerações humanas, no caso: uns 40 a 50 anos.
Na nossa conversa mais recente, ele começou dizendo que precisava rever a previsão.
“Para mais ou para menos?”, eu perguntei.
“Para menos”, respondeu Araújo. “Talvez bem menos.”
A nossa primeira conversa saiu aqui no Blog em julho de 2020 e tinha sido motivada pelo Projeto Tezuka. Cientistas alimentaram uma inteligência artificial com mais de 100 histórias do Osamu Tezuka (1928-1989) e pediram para ela gerar um mangá inédito no estilo do deus do mangá. Saíram mais de cem roteiros e um desenho do protagonista, que tinha alguma coisa de tezukiano. Contratou-se um artista para seguir as deixas da I.A. e o mangá foi publicado naquele ano.
Dois anos depois, a relação quadrinhos/inteligência artificial voltou à pauta por conta de dois nomes: DALL-E e Midjourney. São duas I.A.s que geram imagens a partir de descrições em texto. Você digita “Homem-Aranha pintado por Van Gogh” e surgem imagens do cabeça de teia em pinceladas com a Noite Estrelada ao fundo. Você digita “típica ilustração para um artigo sobre arte e inteligência artificial” e sai a ilustração digital que abre este artigo. Que eu – que nunca fiz uma ilustração digital nem não digital – faria. As I.A.s também nunca fizeram e fazem. Em segundos, o que é mais assustador. E de graça.
Resultado do prompt “Érico Assis e Ricardo Araújo conversam sobre inteligência artificial” no DALL-E
DALL-E e Midjourney são “modelos de rede neural que foram treinados em milhões de imagens com legendas descritivas”, me explica Araújo, que é pesquisador de Inteligência Artificial na Universidade Federal de Pelotas e dá consultoria sobre Aprendizado de Máquina para diversas empresas. Ele também é um dos fundadores da Wida, uma plataforma que aplica ciências de dados a cuidados com saúde mental. Pesquisa e acompanha o desenvolvimento das I.A.s há vinte anos.
Tanto DALL-E quanto Midjourney foram ensinadas a “relacionar o texto da legenda à imagem correspondente e vice-versa, em um processo muito semelhante à tradução automática entre línguas”, diz Araújo. “Uma vez que o modelo tenha aprendido a relação entre palavras e imagens, torna-se possível fazer a tradução de uma imagem para texto (por exemplo, para gerar legendas automáticas), mas também texto para imagem.”
Pergunto se as I.A.s, depois de aprender com milhões de imagens/legendas, fazem colagem ou uma photoshoppada nesse banco de referências. Não é isso. “O modelo não é um banco de dados no sentido estrito e é questionável se é sequer possível reproduzir alguma das imagens utilizadas no treinamento de forma exata. Mas, se ele não copia, certamente ele rima. As imagens geradas vão ser alguma variação em cima de coisas que existem.”
Tanto DALL-E quanto Midjourney foram abertos ao público este ano. O DALL-E – o nome é uma brincadeira com Wall-E e Salvador Dalí – veio antes e rendeu principalmente brincadeiras na internet: gente criando imagens com temas bizarros com um estilo esquisitão.
O Midjourney, que foi aberto ao público em julho, gerou mais preocupação do que piada. As milhões de imagens que serviram de ração à rede neural vieram, supõe-se, mais do âmbito das artes do que as fotos de Google Imagens que (também se supõe) estavam no prato do DALL-E. O Midjourney ainda dá resultados esquisitos, mas alguns ficam muito próximos da ilustração profissional.
Alguns resultados começaram a substituir ilustradores profissionais. A revista Economist produziu uma capa no Midjourney em junho. No mesmo mês, a Cosmopolitan fez uma capa no DALL-E e ainda tripudiou: “Levou só 20 segundos”. As ilustrações deste artigo foram produzidas no DALL-E, no Midjourney e em outro desses modelos, o Crayion, por mim e por Ricardo Araújo.
Resultado do prompt “Dave McKean arranca os cabelos que não tem” no DALL-E
Resultado do prompt “Dave McKean arranca os cabelos que não tem” no Midjourney
Dave McKean, o ilustrador e quadrinista muito conhecido pelas capas de Sandman, foi um dos que ficou assustado com o Midjourney. Sobretudo porque ao ver os resultados um tanto surreais, meio colagem, meio foto com manipulação digital, ele achou a produção da I.A. muito Estilão Dave McKean.
O artista produziu um livro, Prompt: Conversations with A.I., usando apenas o que o Midjourney lhe deu. Na descrição, ele diz: “Alguns dias depois de ler a respeito e digerir as implicações das imagens geradas por I.A., decidi que eu devia ou me aposentar ou reagir.” A reação foram quatro HQs produzidas em 12 dias, sendo uma delas de conversa entre McKean e uma I.A.
Outros experimentos, do programador sérvio Nikola Zivkovic, também calaram fundo no meio dos quadrinhos. Zivkovic tentou fazer o DALL-E e depois o Midjourney “desenharem” a primeira página de A Piada Mortal, uma das HQs clássicas do Batman, a partir do roteiro notoriamente palavroso de Alan Moore.
Os resultados geraram risadas em alguns e preocupação em outros. Ninguém considerou as páginas “artificiais” melhores que a do desenhista original e humano de Piada, Brian Bolland. Mas elas são preocupantes porque, primeiro, as I.A.s ainda estão aprimorando-se e, segundo, porque deram seu resultado em segundos. Bolland é famoso por levar dias em cada página.
“I.A.s podem substituir roteiristas e artistas ruins, fazendo algo melhor”, diz Ricardo Araújo. “Mas suspeito que nunca vão substituir completamente bons artistas, pois valorizamos arte não exclusivamente pelo resultado, mas também pelo processo de criação. Por exemplo: há artistas que produzem desenhos fotorrealistas e, ainda que uma pintura fique idêntica à foto, valorizamos o processo mesmo que se chegue essencialmente à mesma imagem.”
De modo algum seria o fim da arte, ele reforça. “Acho esta ideia, de que os modelos levarão ao fim da arte, problemática por dois motivos. Primeiro: o uso destas tecnologias exige esforço, aprendizado, repetição, avaliação. Gerar algo realmente fenomenal com estes modelos não é também um tipo de arte? E, se não for, onde definimos a fronteira que separa o que tem valor artístico do que não tem? O segundo motivo é que este argumento implica que, só porque uma I.A. é capaz de gerar algo tão bom quanto o que eu poderia gerar, eu não teria motivação para gerar mais nada. Sei muito pouco de arte, mas sei que arte não funciona assim.”
Se DALL-E, Midjourney e outros que podem – devem – surgir provocam discussões quanto ao que é arte no sentido amplo e altivo, os resultados na chamada “arte comercial” ou em aplicações mais banais já se sentem.
Araújo recentemente apresentou uma palestra onde todas as ilustrações haviam sido geradas por ele mesmo no DALL-E. “Se não, elas viriam do banco de imagens do Powerpoint”, ele me diz. “Eu creio que o primeiro impacto destas I.A.s será no mercado de arte como ‘commodity’, como bancos de fotos e ilustrações comerciais.”
A recepção do público também terá impacto. “Talvez passemos a identificar facilmente artes geradas por I.A. e valorizar menos esse tipo de produção.”
Resultado do prompt “Storyboard de novo filme da Marvel” no Midjourney
Alguns profissionais já aventaram que a criação de storyboards será entregue às I.A.s em breve. Afinal, os storyboards, grosso modo, têm uma função técnica na produção audiovisual, de concepção do roteiro em imagens antes de ligar a câmera e posicionar os atores. Não exigem apuro no desenho nem chegam a um público grande. Araújo, porém, acha que isso não vai acontecer tão rápido.
“O problema de gerar storyboards é que eles exigem uma grande carga de interpretação do roteiro. É certo que estes modelos podem gerar algum storyboard, mas é um pouco como arrebanhar gatos. É muito difícil fazer com que o modelo coloque todos os elementos imaginados nas posições que se quer. Eu não diria que isso é mais rápido do que simplesmente desenhar.”
Mas o futuro muito próximo seria – ou o presente talvez já seja – de desenhistas de storyboard usando as I.A.s para potencializar o próprio trabalho. “A partir de um storyboard é possível usar estas mesmas tecnologias para gerar algo mais finalizado, pois os elementos já estão no lugar. No último mês vimos vários exemplos deste tipo de uso, onde, em adição ao texto se coloca como entrada um rabisco da cena e o modelo ‘renderiza’ a cena de forma detalhada.”
Na área médica, conta o pesquisador, fala-se muito que as inteligências artificiais não vão substituir os médicos, mas médicos que usam I.A.s vão substituir os médicos que não usam. Desenho, ilustração, arte e, afinal, muitas profissões devem passar por um processo parecido.
“No caso de desenhistas, a I.A. pode ser apenas uma ferramenta adicional, não tão diferente de um software de edição de imagem. Mas ela também é algo mais ao se propor a ir direto a um produto mais finalizado”, diz Araújo. “Se o desenhista passa a ser um curador de imagens geradas pela IA, aí se tem uma transformação significativa. Mas se ele apenas usa a I.A. como fonte de inspiração ou auxílio, não é tão diferente do que ele já faz com outros recursos.”
Araújo diz que a produção atual através de DALL-E e Midjourney continua muito dependente do trabalho humano refinando o prompt – o que você comunica à I.A. – e selecionando o output. É o que se chama de prompt engineering: afinar o que você escreve até gerar algo desejável, depois ficar selecionando o que faz sentido. “Este ainda é o grosso do trabalho”, diz ele. “Talvez Domador de Modelo esteja se tornando uma profissão.”
Em agosto, circulou muito a notícia de que um artista havia ganhado primeiro lugar em uma feira de artes com um quadro gerado no Midjourney. O caso tem várias nuances, como a de que o quadro ganhou na categoria “arte digital/fotografia manipulada digitalmente” e que era claramente impresso sobre uma tela. Mas o que fica lá pelo fim das reportagens é que o artista levou 80 horas entre domar o Midjourney e chegar às três peças que inscreveu na feira.
Com o avanço das I.A.s, este tempo está reduzindo. “Quando o Projeto Tezuka saiu em 2020, estava claro que a I.A. era uma parte pequena do processo criativo, com artistas ‘de verdade’ interagindo intensivamente com a I.A. para guiá-la onde eles queriam que ela fosse. Apenas dois anos depois, essa interação pode ser bem menos intensa; as I.A.s geram coisas interessantes com muito menos tentativas. Se há dois anos você levava semanas ou meses para obter um resultado aceitável, hoje você consegue em horas.”
Resultado do prompt “O novo vilão do Batman, inspirado em ornitorrincos” no Craiyon
Resultado do prompt “O novo vilão do Batman, inspirado em ornitorrincos” no Midjourney
A I.A. já consegue produzir um quadrinho por conta própria? Não. “Nestes dois anos que se passaram, o avanço que tivemos na geração de texto e imagens foi enorme, mas ainda estamos longe de dizer simplesmente ‘crie um novo quadrinho do Batman com um vilão inédito baseado em ornitorrincos’ e termos algo bom ou mesmo coeso. Ainda assim, eu revisaria minha previsão: talvez tenhamos quadrinhos sendo gerados automaticamente, com alguma qualidade, em 5 anos.”
Está aí a nova previsão. Mas ela vem com ressalvas. “Só acho que não serão quadrinhos que, na média, muitas pessoas vão gostar de ler. Mas é um caso em que, devido ao simples potencial de número de exemplos que se pode gerar, é inevitável que pelo menos um se torne algum tipo de best seller e que seja altamente elogiado por críticos. É um pouco como a ideia de que infinitos macacos batendo em máquinas de escrever em algum momento gerariam Shakespeare. É possível, mas não prova que é uma boa maneira de fazer as coisas.”
O tema é evidentemente muito maior do que quadrinhos, ilustração e arte. A automação de várias atividades que eram ou ainda são feitas por pessoas, mas que passaram ou passarão a ser feitas por inteligência artificial, barateia a produção e afeta empregos.
Araújo separa a escala do indivíduo – “o que acontece com quem vive hoje de atividades que estão sendo automatizadas?” – e a da população – “o que se torna possível quando a atividade passa a ser barata e disponível para muitos?”. A escala populacional tende a dominar “e as coisas novas que se tornam viáveis pelo barateamento da atividade podem gerar muito mais valor (e novos empregos) do que a atividade original. Mas, como sociedade, temos que dar atenção ao indivíduo e criar meios para que estes tenham outras oportunidades e não vejam seus meios de subsistência evaporarem do dia para a noite.”
No caso dos quadrinhos, ou do desenho e das artes, muitos também consideraram a possibilidade de que estas tecnologias possibilitam a criação artística a quem nunca conseguiu fazer arte.
“É verdade que I.A. talvez nunca gere algo tão bom quanto o Brian Bolland gera, mas ela certamente gera algo melhor do que EU geraria. E se isso me habilita a criar coisas que antes estavam fora do meu alcance, isso não é positivo? Não só para mim, mas para quem é obrigado a ficar olhando meus slides nas palestras. E, de certa forma, fico curioso para ver o que Bolland produziria se uma I.A. chegar ao seu nível. Tenho certeza de que será algo que supera a I.A. e ele mesmo.”
Resultado do prompt “Brian Bolland desenha uma inteligência artificial” no Midjourney
***
Escrevi mais um livro. Chama-se Balões de Pensamento 2: ideias que vêm dos quadrinhos e, tal como o primeiro Balões de Pensamento, é uma coletânea de textos que foram publicados aqui no Blog da Companhia. As colunas foram revisadas, algumas foram atualizadas e todas acompanham ilustrações inéditas do quadrinista Alexandre S. Lourenço.
O livro vai sair pela Balão Editorial em dezembro. Você pode saber mais e pré-adquirir seu exemplar na campanha de financiamento coletivo em https://www.catarse.me/baloes2. Ou clicando abaixo: