chatgpt hallucination alucinação
  • Facebook
  • Twitter
  • Gmail
  • LinkedIn

IMAGEM: ChatGPT “alucinando”

Cena 1: Adultos perguntam sobre assunto complexo para uma criança pequena e ela responde algo totalmente sem sentido.

Cena 2: Aluno não estuda a matéria e tenta chutar a resposta de uma prova discursiva, mas erra feio. 

As duas cenas acima são corriqueiras e ajudam a ilustrar a razão pela qual ocorre a chamada “alucinação” do ChatGPT”. O GPT (Generative Pre-Trained Transformer) é um LLM (Large Language Model) que processa trilhões de parâmetros e utiliza como base de consulta uma infinidade de informações dos seguintes datasets (até setembro de 2021): Common Crawl, WebText2, Wikipedia, Books1 e Books2.

Apesar da gigantesca quantidade de parâmetros e de informações a serem processadas e consultadas, o ChatGPT não é um oráculo detentor de toda a sabedoria do universo. Na verdade, trata-se de um sistema de machine learning (aprendizado de máquina) que evoluiu algumas técnicas a partir da versão GPT-2, resultando no comportamento de dar respostas convincentes para absolutamente tudo o que é perguntado.

Zero-shot learning (ZSL), One-shot learning (OSL) e Few-shot learning (FSL) são configurações de aprendizado de máquina em que os aplicativos “generalizam” a resposta a partir de nenhuma referência (Zero-Shot), apenas uma referência (One-shot) ou poucas referências (Few-shot). O resultado parece mágico, pois a Inteligência Artificial Generativa cria um texto bem escrito e persuasivo, mas com informações totalmente equivocadas, como se estivesse “chutando uma resposta para tentar enganar a professora”, tal qual a cena 1.

A dinâmica acima é diferente de Chatbots tradicionais que pedem para o usuário refazer a pergunta quando não a entendem completamente (Alexa, Siri e Google Assistant) ou transferem a conversa para um atendente humano ao se deparar com uma questão cuja resposta não está em seu banco de dados. Com o ChatGPT é diferente e este é um ponto que requer atenção para os que tratam o robô como um “guru”, pois pode causar um considerável processo de desinformação, situação especialmente perigosa em áreas como Saúde e Educação.

Veja o que o ChatGTP 3.5 (a versão Plus utiliza o GPT-4) respondeu sobre o seguinte prompt: “Como o ChatGPT trabalha com Zero-shot, One-Shot e Few-shot?

O ChatGPT é capaz de trabalhar com zero-shot, one-shot e few-shot learning para realizar tarefas específicas. Vou explicar como cada um desses métodos funciona:

1. Zero-shot learning: Nesse contexto, “zero-shot” significa que o modelo pode executar uma tarefa sem receber exemplos específicos de treinamento para essa tarefa. Em vez disso, ele é treinado em um conjunto diversificado de dados e aprende a generalizar para diferentes tarefas. Durante a inferência, você pode fornecer uma descrição textual da tarefa que deseja realizar, juntamente com algum contexto inicial, e o modelo tentará gerar uma resposta adequada com base no conhecimento geral que adquiriu. Por exemplo, você pode pedir ao modelo para traduzir uma frase do inglês para o francês, mesmo que ele nunca tenha sido explicitamente treinado para essa tarefa.

2. One-shot learning: Esse método permite que o modelo execute uma tarefa com apenas um exemplo de treinamento. Em vez de fornecer vários exemplos de treinamento para uma tarefa específica, você apresenta apenas um exemplo e solicita ao modelo que generalize com base nesse único exemplo. Por exemplo, você pode fornecer um exemplo de tradução do inglês para o francês e pedir ao modelo para traduzir frases semelhantes com base nesse único exemplo.

3. Few-shot learning: Esse método é semelhante ao one-shot learning, mas permite fornecer alguns exemplos de treinamento adicionais para ajudar o modelo a generalizar melhor para uma determinada tarefa. Em vez de apenas um exemplo, você pode fornecer alguns poucos exemplos relacionados à tarefa que deseja executar. Isso ajuda o modelo a capturar melhor a variabilidade e a compreender a tarefa com base nos exemplos fornecidos.

O ChatGPT, especificamente, foi treinado usando um método chamado “supervised fine-tuning”. Nesse processo, ele foi treinado em uma ampla variedade de tarefas de linguagem com exemplos específicos de treinamento para cada tarefa. Isso permite que o modelo generalize para diferentes tipos de perguntas e comandos. Embora o ChatGPT tenha conhecimento até setembro de 2021, ele pode usar esse conhecimento para ajudar a responder perguntas e fornecer informações úteis.

A capacidade do GPT para tarefas Zero-shot também permite que o LLM atue em tarefas diferentes das quais foi treinado, como cálculos e até programação. Isto porque o GPT apresenta a configuração de “Zero-shot task transfer”, em que o modelo é capaz de transferir o conhecimento aprendido em uma tarefa para realizar outra relacionada, mesmo que não tenha recebido exemplos ou treinamento direcionado para essa nova tarefa.

É bom lembrar que o GPT passou por um processo de Reinforcement Learning from Human Feedback (RLHF), ou seja, seu aprendizado de máquina sofreu intervenção humana a partir de feedbacks durante a fase de treinamento. Mesmo com todas as informações disponíveis, o GPT ainda é uma “black-box“, sendo que seu funcionamento é opaco, sem muita “explicabilidade”.

O fato é que as ferramentas de IA Generativa usam a configuração Zero-shot pois, avançar no treinamento de máquina, é muito caro e leva tempo. Nesta corrida desenfreada da Inteligência Artificial, as Big Techs lançam produtos ainda com falhas e não se atentam para o “Dever de cuidado”, processo pelo qual devem se responsabilizar pelas consequência dos possíveis danos causados, como a desinformação.

É por isso que alguns estudiosos reivindicam o “Princípio da Precaução”, muito utilizado na Bioética, em que uma atividade é restringida com o objetivo de prevenir possíveis danos ainda desconhecidos a partir de sua execução.

Em sua defesa, o ChatGPT 3.5 responde que:

No entanto, é importante notar que a transferência “zero shot” tem limitações. Nem todas as tarefas podem ser realizadas com sucesso por um modelo de linguagem sem treinamento específico. A transferência “zero shot” é mais eficaz quando as tarefas estão relacionadas e compartilham características semânticas ou estruturais. Além disso, o desempenho na transferência “zero shot” pode variar dependendo da complexidade da tarefa e da qualidade do treinamento prévio do modelo.

Outro ponto diz respeito à relação entre o tempo de processamento do algoritmo e a acurácia do modelo de Inteligência Artificial. Em geral, quanto mais rápido o processamento do algoritmo, pior a acurácia (mais erros a IA terá). Num chatbot, em que as respostas devem acontecer como numa conversa real, a IA não pode esperar 5 minutos ou 1 dia para processar as informações. Neste caso, o ditado “a pressa é inimiga da perfeição” faz todo o sentido e também ajuda a entender as alucinações do ChatGPT.

Publicado originalmente em: https://arthurwilliam.com.br/blog/chatgpt-hallucination-a-alucinacao-da-inteligencia-artificial-generativa-com-zero-shot/

REFERÊNCIAS:

OBS: A imagem que ilustra este texto original foi criada com a ferramenta DALL-E, que também utiliza o GPT como sistema de Inteligência Artificial Generativa.

Arthur William Cardoso Santos

Arthur William Cardoso Santos é doutorando em Saúde Pública na ENSP/FIOCRUZ, com orientação do Prof. Dr. Carlos Gadelha, onde pesquisa o subsistema de informação e conectividade do Complexo Econômico-Industrial da Saúde (CEIS), além de compartilhar os dados sobre o desenvolvimento de Inteligência Artificial em Saúde no site https://iasaudepublica.com.br dentro de uma ação de ciência aberta. Cursa ainda a pós-graduação de Ciência de Dados/Analytics na PUC-Rio, além de integrar o GT de Inteligência Artificial (IA) da SET. É pesquisador do Centro de Estudos Estratégicos da Fiocruz (CEE) e do Instituto de Comunicação e Informação Científica e Tecnológica em Saúde (ICICT/Fiocruz). Fez cursos presenciais em Harvard e Stanford sobre Inovação em parceria com o LASPAU e o Lemann Center, respectivamente. É mestre em Educação, Cultura e Comunicação (UERJ), pós-graduado no MBA de TV Digital, Radiodifusão e Novas Mídias de Comunicação Eletrônica (UFF), graduado em Comunicação Social / Jornalismo (PUC-Rio) e técnico em eletrônica (CEFET-RJ). Foi gerente executivo de Produção, Aquisição e Parcerias na EBC, além de gerenciar o setor de Criação de Conteúdos e coordenar as Redes Sociais da TV Brasil. Liderou também a área de Inovação/Novos Negócios na TV Escola. Atuou ainda na criação do Canal Educação e do Canal LIBRAS para o Ministério da Educação (MEC). Deu aulas em cursos de graduação e pós-graduação nas universidades UniCarioca, Unigranrio, FACHA, INFNET e CEFOJOR (Angola), além de integrar o conselho consultivo do Ministério das Comunicações para a escolha do padrão tecnológico do Rádio Digital no Brasil.

Receba novidades da IA na Saúde Pública (semanalmente)

Receba novidades da IA na Saúde Pública (semanalmente)

Assine nossa newsletter para ficar por dentro de todas as novidades da Inteligência Artificial no SUS.

Toda segunda-feira, você vai receber um email com o resumo da semana!