Carta aberta: Pare com a adoção acrítica de tecnologias de IA na academia
Esta é uma tradução de “Open Letter: Stop the Uncritical Adoption of AI Technologies in Academia”.
Prezadas universidades da Holanda, universidades holandesas de ciências aplicadas e respectivas diretorias executivas,
Com esta carta, assumimos uma posição (baseada em princípios) contra a proliferação das chamadas tecnologias de “IA” nas universidades. Como instituição educacional, não podemos tolerar o uso acrítico da IA por parte de alunos, professores ou dirigentes. Também pedimos que se reconsidere qualquer relação financeira direta entre universidades holandesas e empresas de IA. A introdução irrestrita da tecnologia de IA leva à violação do espírito da lei Al da UE. Isso prejudica nossos valores pedagógicos básicos e os princípios da integridade científica. Isso nos impede de manter nossos padrões de independência e transparência. E o mais preocupante é que o uso da IA tem demonstrado prejudicar o aprendizado e enfraquecer o pensamento crítico.
Como acadêmicos, e especialmente como educadores de nível universitário, temos a responsabilidade de educar nossos alunos, não de aprovar diplomas sem qualquer relação com as habilidades de nível universitário. Nosso dever como educadores é o cultivo do pensamento crítico e da honestidade intelectual, e não é nosso papel policiar ou promover a trapaça, nem normalizar a rejeição do pensamento profundo por parte de nossos alunos e orientandos. As universidades têm como objetivo o envolvimento profundo com o assunto. O objetivo da formação acadêmica não é resolver problemas da forma mais eficiente e rápida possível, mas desenvolver habilidades para identificar e lidar com problemas novos, que nunca foram resolvidos antes. Esperamos que os alunos tenham espaço e tempo para formar suas próprias opiniões profundamente ponderadas, informadas por nossa experiência e nutridas por nossos espaços educacionais. Esses espaços devem ser protegidos da publicidade da indústria, e nosso financiamento não deve ser mal gasto em empresas com fins lucrativos, que oferecem pouco em troca e desqualificam ativamente nossos alunos. Até mesmo o próprio termo “Inteligência Artificial” (que cientificamente se refere a um campo de estudo acadêmico) é amplamente mal utilizado, com a falta de clareza conceitual sendo aproveitada para promover as agendas da indústria e minar as discussões acadêmicas. É nossa tarefa desmistificar e desafiar a “IA” em nosso ensino, pesquisa e em nosso envolvimento com a sociedade.
Devemos proteger e cultivar o ecossistema do conhecimento humano. Os modelos de IA podem imitar a aparência de trabalhos acadêmicos, mas eles (por construção) não se preocupam com a verdade — o resultado é uma torrente de “informações” não verificadas, mas que soam convincentes. Na melhor das hipóteses, esses resultados são acidentalmente verdadeiros, mas geralmente sem citações, divorciados do raciocínio humano e da rede acadêmica da qual se apropriam. Na pior das hipóteses, são confiantemente errados. Ambos os resultados são perigosos para o ecossistema.
As tecnologias de “IA” supervalorizadas, como chatbots, grandes modelos de linguagem e produtos relacionados, são apenas isso: produtos que a indústria da tecnologia, assim como as indústrias do tabaco e do petróleo, produz em massa para obter lucro e em contradição com os valores da sustentabilidade ecológica, dignidade humana, proteção pedagógica, privacidade de dados, integridade científica e democracia. Esses produtos de “IA” são material e psicologicamente prejudiciais à capacidade de nossos alunos de escrever e pensar por si mesmos, existindo, em vez disso, para o benefício de investidores e empresas multinacionais. Como estratégia de marketing para introduzir tais ferramentas na sala de aula, as empresas afirmam falsamente que os alunos são preguiçosos ou carecem de habilidades de redação. Condenamos essas afirmações e reafirmamos a autonomia dos alunos em relação ao controle corporativo.
Já passamos por isso antes com o tabaco, o petróleo e muitas outras indústrias nocivas que não têm nossos interesses em mente e que são indiferentes ao progresso acadêmico de nossos alunos e à integridade de nossos processos acadêmicos.
Apelamos a vocês para que:
• Resistam à introdução da IA em nossos próprios sistemas de software, da Microsoft à OpenAI e à Apple. Não é do nosso interesse permitir que nossos processos sejam corrompidos e ceder nossos dados para serem usados no treinamento de modelos que não só são inúteis para nós, mas também prejudiciais.
• Proíbam o uso da IA em sala de aula para tarefas dos alunos, da mesma forma que proibimos fábricas de redações e outras formas de plágio. Os alunos devem ser protegidos contra a perda de habilidades e ter espaço e tempo para realizar suas tarefas por conta própria.
• Deixar de normalizar o hype da IA e as mentiras que prevalecem na forma como a indústria de tecnologia apresenta essas tecnologias. As tecnologias não têm as capacidades anunciadas e sua adoção coloca alunos e acadêmicos em risco de violar padrões éticos, legais, acadêmicos e científicos de confiabilidade, sustentabilidade e segurança.
• Fortalecer nossa liberdade acadêmica como funcionários da universidade para fazer cumprir esses princípios e padrões em nossas salas de aula e em nossas pesquisas, bem como nos sistemas de computador que somos obrigados a usar como parte de nosso trabalho. Nós, como acadêmicos, temos direito aos nossos próprios espaços.
• Manter o pensamento crítico sobre a IA e promover o envolvimento crítico com a tecnologia em uma base acadêmica sólida. A discussão acadêmica deve estar livre de conflitos de interesse causados pelo financiamento da indústria, e a resistência fundamentada deve ser sempre uma opção.
Veja as autores e autores (e assine, se concordar) em https://openletter.earth/open-letter-stop-the-uncritical-adoption-of-ai-technologies-in-academia-b65bba1e