AI na educação: ChatGPT é apenas o começo

Grandes modelos de linguagem como ChatGPT podem gerar texto coerente e crível. Como isso afeta a educação e o ensino?

A rigor, o ChatGPT – inteligência artificial que gera textos em resposta a prompts de entrada – não é nem o começo, mas apenas um estágio intermediário no processamento de linguagem natural (PNL), observado há cerca de dez anos.

O ChatGPT também não pode fazer nada fundamentalmente novo que as ferramentas anteriores não pudessem. Difere apenas na qualidade da saída gerada, no foco na interatividade (inserção de perguntas e respostas geradas por IA) e, acima de tudo, na simplicidade cativante: uma URL, um registro, um único campo de texto vazio simples e o infinito de geração de texto está aberto a você, que aliás (dependendo da pergunta, principalmente) fornece resultados significativos e bem fundamentados, já que acessa um corpus de cerca de 1 trilhão de palavras (de 6 milhões de artigos da Wikipédia e milhões de livros e sites).

Deve-se notar que o conjunto de dados de treinamento consiste quase exclusivamente em textos em inglês, mas a tradução assistida por IA também entra em jogo ao se comunicar com os usuários. Essa tradução integrada às vezes leva a trágicos mal-entendidos na comunicação.

Apesar de todos os problemas iniciais, os resultados são impressionantes, perturbadores e impressionantemente perturbadores. Todo o mundo acadêmico, das escolas primárias às melhores universidades, está em turbulência, alguns por pânico distópico, outros por ingenuidade utópica. Ambas as posições são altamente compreensíveis.

Para todos os leitores para quem o ChatGPT ainda não significa nada, pedimos ao ChatGPT que se apresente brevemente:

ChatGPT, você pode se apresentar brevemente?

Sou um assistente, um grande modelo de linguagem treinado pela OpenAI. Sou capaz de responder a perguntas e solicitações em diferentes idiomas e fornecer informações. Também sou capaz de ter pequenas conversas e fornecer respostas semelhantes às humanas. No entanto, não sou uma pessoa real e não tenho experiência ou opiniões pessoais. Meu nível de conhecimento está limitado ao ano de 2021 e não tenho capacidade de acompanhar os acontecimentos atuais ou obter novas informações. Sou apenas um programa de computador projetado para fornecer informações e tentar responder a perguntas e perguntas da melhor maneira possível.

Qual é o potencial disruptivo do ChatGPT em termos de processos de escrita acadêmica?

O ChatGPT é um chatbot treinado com aprendizado de máquina para ter conversas semelhantes às humanas. Ele é projetado para ajudar estudantes e profissionais acadêmicos a apoiar e melhorar seus processos de escrita.

Um dos potenciais disruptivos do ChatGPT em termos de processos de escrita acadêmica é que ele pode ajudar os alunos a estruturar e formular suas ideias e pensamentos. O ChatGPT também pode atuar como um assistente de escrita “inteligente”, fornecendo aos usuários sugestões para possíveis mudanças ou melhorias em seu estilo de escrita ou gramática.

Além disso, o ChatGPT permite que os usuários compartilhem seus processos de escrita com outras pessoas e colaborem em projetos. Isso pode ser especialmente benéfico para os alunos que participam de projetos colaborativos ou processos de escrita compartilhados.

No geral, o ChatGPT oferece a possibilidade de simplificar e melhorar os processos de redação acadêmica, ajudando os usuários a estruturar e formular suas ideias, sugerindo possíveis mudanças e oferecendo a possibilidade de colaborar em projetos.

Por outro lado, e os perigos?

Existem alguns perigos potenciais relacionados ao uso do ChatGPT ou outros chatbots projetados para processos de redação acadêmica. Uma das principais preocupações é que os chatbots não são capazes de replicar as habilidades analíticas profundas e as habilidades de pensamento crítico dos humanos. Os chatbots podem fazer sugestões para possíveis melhorias ou mudanças no estilo de escrita ou gramática, mas não podem realizar análises profundas ou reflexões críticas que muitas vezes são necessárias para trabalhos acadêmicos.

Outra preocupação é que os chatbots podem não ser capazes de acomodar a diversidade cultural e linguística das pessoas. É importante que os alunos aprendam a expressar seus pensamentos e ideias em seu próprio idioma e estilo, e os chatbots podem não ser capazes de suportar essa capacidade.

Também é importante observar que os chatbots podem não ser capazes de atender aos complexos requisitos e padrões de trabalhos acadêmicos. Embora possam ajudar a simplificar e melhorar os processos de redação, não podem substituir uma pesquisa completa, uma análise aprofundada e uma reflexão crítica.

Finalmente, há preocupações sobre os aspectos de privacidade e segurança dos chatbots. É importante que os alunos sejam informados sobre como seus dados são usados ​​pelos chatbots e que eles entendam que os chatbots podem não ser capazes de fornecer a mesma confidencialidade e segurança que os consultores de escrita humanos.

No geral, existem alguns perigos potenciais associados ao uso de chatbots como o ChatGPT em processos de redação acadêmica. É importante que os alunos considerem essas preocupações e entendam que os chatbots não podem substituir uma pesquisa aprofundada, análise profunda e reflexão crítica.

Obrigada. Isto me ajuda muito.

De nada! Espero que minhas respostas tenham ajudado você a entender melhor o potencial perturbador do ChatGPT em relação aos processos de escrita acadêmica e também a considerar os perigos potenciais associados ao seu uso. Se você tiver mais perguntas ou precisar de mais informações, não hesite em entrar em contato comigo. Estou aqui para te ajudar!

Esta caixa de diálogo foi criada em alguns segundos e sem nenhum pós-processamento. Com um pouco mais de esforço, resultados muito melhores poderiam ter sido produzidos, mas mesmo o resultado dessa entrada sem noção é suficiente para passar no teste de Turing.

A discussão sobre como as escolas (superiores) devem reagir a isso, que foi alimentada desde 30 de novembro de 2022, com o lançamento gratuito do ChatGPT, falha na maioria dos casos, porque a política de ensino superior costuma ser – e por boas razões – inerte.

Como resultado, ferramentas como o ChatGPT geralmente estão mais de um passo à frente das discussões sobre políticas de ensino superior. Por exemplo, muitos comitês universitários ainda estão discutindo a introdução sistemática de software de detecção de plágio. Nesse ínterim, o plágio está desempenhando um papel cada vez menor, pois as ferramentas de IA podem produzir documentos completos que não são factuais nem legalmente plagiados.

Uma exceção é o plágio estrutural, no qual o texto existente é intencionalmente distorcido usando ferramentas de paráfrase alimentadas por IA, também chamadas de ferramentas de reescrita, para ocultar a fonte da detecção por software de detecção de plágio.

A nosso ver, as questões a colocar e a negociar no ensino (superior) não são, portanto, como reagir a este ou aquele instrumento, a este ou aquele desenvolvimento, mas sim: Que mudanças qualitativas fundamentais em relação ao trabalho científico se podem esperar como resultado da futura colaboração da inteligência humana e artificial que irá determinar o nosso quotidiano (académico)? Como queremos lidar com isso no contexto da formação (educacional)?

Responder a essas perguntas requer uma consciência histórica com um olhar para o futuro.

O futuro dos modelos de linguagem de IA generativa

O gráfico a seguir mostra que o desenvolvimento de modelos de linguagem grandes (LLMs) está progredindo rapidamente. O foco está no indicador de contagem de parâmetros, que se correlaciona positivamente com o desempenho do LLM, aqui no período de 2019 a 2021.

O desenvolvimento dos modelos de linguagem AI mais importantes até o momento mostra, portanto, um aumento exponencial no desempenho. No entanto, o gráfico também reflete o pioneirismo americano e chinês (veja a start-up alemã Alef Alfa na comparação na extrema direita do gráfico).

Jörg Bienert, na qualidade de Presidente do Conselho de Associação Alemã de IA enfatizou explicitamente a alta relevância estratégica de modelos generativos de linguagem de IA para a economia alemã e europeia e o potencial futuro associado de modelos de linguagem de IA em um artigo convidado no Handelsblatt em junho de 2022.

A Associação Alemã de IA lançou seu Iniciativa LEAM (abreviação de “Large European AI Models”) já em 2021 para promover o desenvolvimento de grandes modelos de IA na Europa e evitar a dependência de soluções fora da UE. Apoiado por renomadas instituições de pesquisa, empresas, associações e startups, o LEAM pretende ser um projeto farol europeu de IA.

Olhar para o futuro é difícil, porque não há fim à vista para o desenvolvimento. Atualmente, a deficiência mais discutida dos modelos de linguagem de IA é o caráter ficcional de alguns textos gerados (sistemas “alucinantes”), mas esse problema também deve ser resolvido em um futuro próximo.

DeepMind oferece o modelo de linguagem Retro um modelo com pesquisa de banco de dados para verificação de fatos. OpenAI está trabalhando no protótipo de pesquisa WebGPT que deve abranger uma pesquisa adicional na Internet como uma extensão do GPT-3 ou GPT-3.5 para poder gerar textos mais factuais.

Como alternativa ao ChatGPT da OpenAI, o provedor de serviços de texto AI Writesonic está se posicionando com o Chatsonic, já prometendo uma solução para as dificuldades com textos fictícios: “Escreva conteúdo factual com tópicos em tempo real”. Outros provedores já estão seguindo com anúncios semelhantes.

O próximo modelo da OpenAI, GPT-4, está programado para ser lançado em alguns meses e provavelmente representará outro salto quântico, como o salto de versão de GPT-2 para GPT-3 em meados de 2020.

Mais progressos também estão no horizonte na interação entre humanos e máquinas no processo de escrita real. Em agosto de 2022, Meta anunciou o bot de escrita PEER um modelo de linguagem colaborativa projetado para fornecer suporte durante todo o processo de escrita.

Como um “pau para toda obra”, o PEER deve ser capaz de fornecer rascunhos rápidos, adicionar sugestões, sugerir edições e explicar suas ações também. E como mencionado anteriormente, este é, sem dúvida, apenas o começo.

Com seu projeto de lei AI , a Comissão da UE pretende regular de forma abrangente o impacto da IA. Dependendo da classificação de risco da Lei de IA da UE, isso resultará em certas obrigações, estratégias de IA, diretrizes de IA documentadas e comunicadas para empresas como provedoras e usuárias de sistemas de IA.

Onde estão os limites para o campo da educação? Eles podem ser identificados ou tendem a se fundir?

O uso de modelos de linguagem de IA generativa na educação

A questão central controversamente discutida no contexto educacional é: as ferramentas de escrita apoiadas por IA devem ser usadas proativamente no sentido de geradores de rascunhos de textos em sala de aula para, em última instância, gerar um trabalho de maior qualidade por meio da criação automatizada de rascunhos de textos iniciais e o subsequente “manual”? ” otimização dos textos?

Do nosso ponto de vista, a resposta é: sim. Ou melhor: Sim, mas.

É o que é: modelos e sistemas de linguagem de IA são um fato da vida no trabalho do conhecimento. Esconder e ignorar não são táticas apropriadas. Mas se não é mais uma questão de “se” usar ferramentas de IA, então a pergunta deve ser: como devemos usar essas ferramentas no futuro? Que conhecimentos, que competências precisam os alunos (professores, alunos)?

Estes incluem, por exemplo, a capacidade de trabalhar cientificamente, conhecimento de padrões de texto, etc., mas acima de tudo o pensamento analítico e crítico necessário para avaliar produtos automatizados e controlar seu uso.

A questão muito mais difícil atualmente gira em torno do problema de avaliar essas realizações dos alunos, que são o resultado da coprodução homem-máquina. Se os trabalhos de casa escritos e os trabalhos finais continuarem a ser formas relevantes de exame no futuro, nossa solução proposta começa com a analogia com a avaliação da qualidade do produto: No futuro, devemos avaliar não apenas o resultado final, mas também a qualidade do design que levou a este produto acabado e elaborado.

Duas dimensões são relevantes aqui: o desenho metodológico-técnico (no sentido de um projeto de pesquisa) e o associado projeto de ferramenta técnica, por meio do qual soluções de software clássicas (por exemplo, processamento de texto, gerenciamento de literatura, programas estatísticos) e ferramentas modernas com suporte de IA podem ser consideradas. Realisticamente, no entanto, mesmo essa abordagem sugerida é adequada apenas como uma solução provisória.

Duas razões são cruciais para isso (de uma perspectiva de janeiro de 2023): ferramentas de assistência de pesquisa digital alimentadas por IA, como elicit.org já nos fornecem um designer de método que nos dá uma riqueza de métodos científicos ao nosso alcance, dependendo da questão de pesquisa.

Este desenvolvimento ainda está em beta, mas pode ser considerado inovador. Assim, essa abordagem poderia levar ao design científico metodológico com o apertar de um botão, com o desempenho humano ficando cada vez mais em segundo plano.

Também é esperado que as ferramentas de IA usadas se tornem exponencialmente mais poderosas. Isso, por sua vez, significa que a qualidade dos primeiros rascunhos continuará melhorando e o pós-processamento humano se tornará cada vez mais supérfluo.

nossa conclusão

Nós precisamos novos ambientes de ensino e aprendizagem fundamentalmente renovados e, acima de tudo, precisamos repensar nossa cultura de ensino, aprendizado e avaliação nas escolas e universidades alemãs.

Agora nós, como representantes universitários e professores, com nossa criatividade humana e julgamento crítico, somos particularmente chamados; podemos e devemos provar a nós mesmos. Estamos apenas no começo – e, infelizmente, ou felizmente, não no fim.