Lagom Insights: a ilusão futurista da IA
Demorou pra sair esta nova edição da newsletter, né? Andei lendo alguns livros e artigos bem interessantes e estava com uma ideia semiformada na cabeça sobre as implicações de o mundo estar colocando em produção, como algo pronto, aplicações de inteligência artificial que falham miseravelmente a ponto de ser impossível confiar nelas para tarefas críticas.
Isso já está sendo usado, mesmo assim — eu mesmo tenho feito testes com algumas aplicações, sempre ficando inicialmente impressionado com o resultado inicial mas, ao olhar o resultado final, fico decepcionado.
Mesmo para uma tarefa simples de linguagem, como extrair o nome de cidades mencionadas em algumas centenas de textos, na maior parte dos casos dá certo mas em parte deles aparece alguma coisa saída simplesmente do nada — tipo trocar o nome de uma cidade pequena por outro parecido de uma cidade maior (localizada em outro Estado) ou do nada citar uma cidade do Xingu no meio do Rio Grande do Sul. E isso apenas para algo que apareceu no meu trabalho mais de uma vez.
Sempre que eu menciono isso em redes sociais, sempre, aparece alguém lembrando que isto é porque estamos apenas no começo, que o GPT6 vai resolver esse problema ou seja lá o que for. O problema é que, mesmo que a solução realmente esteja no futuro, a versão imperfeita de agora já está gerando problemas.
O pessoal de Wall Street já está se queixando que gasta muita grana com isso; se você for olhar a newsletter de Ben Evans, que trabalha num fundo de “venture capital” focado em tecnologia, eles próprios estão em busca de casos de uso transformadores da IA gerativa. Ainda não tem nada que não sirva para meramente substituir mão de obra real por versões baratas feitas de uma maneira muito cara em termos de dinheiro e energia.
Por ora, as empresas de IA vendem o gerador de lero-lero mais surpreendente que já existiu prometendo que no futuro ele inclusive vai falar coisas com pé e cabeça. Mas por enquanto o ChatGPT tem a assertividade de um homem branco de meia-idade jogando conversa fora com os amigos no bar. (Tenho lugar de fala, embora ande indo pouco ao bar.)
E, se um dia aparecer algo melhor, que torne dispensável o trabalho de muita gente que depende desse trabalho para o sustento da sua família, é realmente isso que desejamos nós que não somos da turma do Elon Musk?
Mas enfim: pensava eu nesse monte de fiozinhos soltos, esperando escrever sobre isso, quando trombei com este artigo, escrito por uma pessoa que faz pesquisa de pós-doutorado na Universidade de Copenhague. A pessoa resume tudo o que eu vinha pensando de maneira muito elegante, acrescentando novas nuances.
Fiz contato, pedi licença e traduzi para vocês. Ela permite que o artigo seja republicado desde que tenha crédito. Eu libero minha tradução com crédito também.
A ilusão futurista da IA gerativa
Por que continuamos a acreditar que a IA vai resolver a crise climática (visto que ela está ajudando a piorar), acabar com a pobreza (da qual ela depende muito) e libertar o pleno potencial da criatividade humana (que ela está minando)?
Por DENISE UTOCHKIN, que pesquisa em pós-doutorado no Departamento de Saúde Pública da Universidade de Copenhague. Publicado originalmente no University Post e traduzido, mediante autorização, por Marcelo Soares, da Lagom Data
Antes do recesso de verão, o University Post publicou um artigo instando a Universidade de Copenhagen a integrar mais firmemente a IA gerativa nas aulas e no “cotidiano” da universidade. O conselho bem-intencionado veio dos pesquisadores responsáveis por um estudo do uso de IA pelos estudantes, segundo o qual a maioria dos alunos não usava grandes modelos de linguagem (LLMs). Assim, eles propunham, a universidade está ostensivamente falhando em preparar os estudantes para o “mercado de trabalho do mundo real”.
A premissa subjacente do artigo é que, como a IA parece estar em toda parte hoje em dia, deve ser adotada pelos educadores e estudantes, que precisam “perceber” que deveriam “explorar seu potencial” ao invés de “obstruir a tendência”.
Em resposta a isto, eu gostaria de oferecer algumas reflexões sobre o real e o imaginário, o presente e o futuro, bem como sobre a responsabilidade da universidade e dos estudantes.
Um “mundo real” diferente do atual
A aspiração de preparar os estudantes para o mundo real é louvável, vital até. Mas, quando encontramos essas propostas, precisamos observar bem qual é exatamente o mundo que somos convidados a considerar real.
O mundo real do qual o artigo fala notoriamente não é o de hoje, mas o do futuro. O artigo fala da “realidade da sociedade e do mercado de trabalho que [os estudantes] encontrarão”, mesmo que os estudantes atualmente matriculados num curso estejam, por definição, prestes a entrar num mercado de trabalho diferente do que temos hoje.
Em seguida, o artigo prevê que os acadêmicos do futuro não terão escolha senão usar a IA extensivamente, Mais uma vez, estão colocando um futuro no lugar do presente, a imaginação de alguém no lugar da realidade.
Ilusão de inevitabilidade
Colocar o tempo futuro no lugar do tempo presente fabrica o consenso de duas maneiras.
Primeiro, isso tira o ônus da prova de qualquer um que faça uma declaração sobre os benefícios da IA, não importa o quanto sejam vagos e grandiosos. A revolução da IA está aí, eles nos dizem. Ah, você ainda não vive num mundo mais justo e agradável? Claro, é porque estamos no meio de uma transição, e portanto você pode ter de esperar um pouco mais para sentir o seu impacto!
Segundo, essa ofuscação dos limites cria uma ilusão de inevitabilidade. Podem nos faltar evidências de que a IA seja uma força benéfica – mas isso não importa, porque opor-se ao seu emprego cada vez mais amplo seria um esforço vão.
Isto descarta preventivamente qualquer crítica possível da tecnologia: tanto faz se esse é ou não um futuro que desejemos, diz o argumento, pois esse é o futuro que teremos. Estamos sendo levados a acreditar que interrogar se isso é um futuro desejável (ou, de fato, plausível) seria fútil e até contraproducente.
A IA polui, divide e explora
Em 2020, a Microsoft se comprometeu a se tornar carbono-negativa (ou seja, compensar mais carbono do que emite) até 2030. Desde então, a empresa aumentou suas emissões em 30%, em grande parte devido a novos data centers usados para rodar modelos da IA gerativa (com outras empresas e governos, inclusive o dinamarquês, fazendo o mesmo). Entretanto, não precisaríamos nos preocupar porque como Bill Gates já disse sem fundamentar em uma entrevista recente, “a IA vai se pagar”.
Pedem que ignoremos o fato de que a corrida pela adoção massiva da IA é alimentada por imensos danos ao meio-ambiente. Que o hardware em que a IA roda depende da extração de minerais em zonas de conflito, por mineiros que trabalham em condições análogas à escravidão. Que os algoritmos são treinados pelo roubo de trabalho criativo e acadêmico, além de explorar uma vasta subclasse global de trabalhadores-fantasma que ajudam a fazer a sintonia fina desses modelos em condições injustas e não raro traumatizantes.
E o que nos oferecem em troca? Uma tecnologia com utilidade tão dúbia e confiabilidade tão baixa que seus resultados são considerados “soft bullshit” por acadêmicos, e tentativas de enfiar a IA em contextos muito mais simples e menos consequentes do que a educação (como, por exemplo, pedir hambúrgueres) estão sendo abandonadas após falhas imensas. Até as corretoras de Wall Street estão se cansando das afirmações não substanciadas de que a IA vale o que custa ou mesmo que seja apenas significativamente útil.
Ainda assim, toda vez, nos pedem que ignoremos todos esses riscos e tiros pela culatra do presente, porque o futuro em que a IA terá resolvido a crise do clima (que ela está ajudando a piorar), acabado com a pobreza (da qual depende muito) e liberado o pleno potencial da criatividade humana (que está minando) é inevitável e está logo ali.
A universidade deveria fazer diferente
Na academia, temos a obrigação de interrogar a proposição de que o mundo em que a IA será amplamente usada é desejável ou inevitável. Não precisamos torcer por uma visão do futuro em que os cientistas se sentem confortáveis em não ler pessoalmente os artigos que seus pares escreveram e onde não se espera que os estudantes aprendam algo ao trabalhar com conceitos complexos: um mundo em que o trabalho criativo e do conhecimento é delegado a um algoritmo sem mente.
O mundo real é aquilo que fazemos. É nossa responsabilidade, como educadores, garantir que nossos estudantes lembrem disso e participem ativamente na decisão de como melhor formatar um futuro comum.
Será que o futuro que queremos é um em que todos nos afoguemos na “soft bullshit” do ChatGPT?
Como escreve Richard Shaull no prefácio da edição internacional de “Pedagogia do Oprimido”, de Paulo Freire, “Não existe processo educacional neutro. A educação ou funciona como um instrumento usado para facilitar a integração da geração mais jovem na lógica do sistema presente e conformar-se a ela, ou se torna a ‘prática da liberdade’, o meio em que se lida criticamente e criativamente com a realidade para descobrir como participar da transformação do seu mundo”.
Ao insistir em que o futuro está predeterminado e que o melhor que podemos fazer é aceitar qualquer novo produto vendido a nós pela empresa com o maior valor de mercado, a universidade está traindo sua responsabilidade de capacitar seus estudantes a se perceberem como sujeitos capazes de afetar o mundo e pensar criticamente sobre ele.
Para evitar que se caia nessa armadilha, a universidade e os estudantes deveriam se perguntar o seguinte: será que queremos um futuro em que estejamos todos afogados na “soft bullshit” do ChatGPT? Ou será que nossa imaginação permite outros “mundos reais”?