Por que os modelos de linguagem alucinam? / OpenIA

Por que os modelos de linguagem alucinam? / OpenIA

A persistência das alucinações se deve em parte aos incentivos oferecidos pelos métodos de avaliação que estão sendo usados. Embora as avaliações não provoquem as alucinações diretamente, a maioria delas mede o desempenho do modelo de uma forma que favorece adivinhações, em vez de reconhecer uma incerteza.

É como se fosse um teste de múltipla escolha. Se você não sabe, mas chuta uma resposta, pode acabar acertando. Mas vai ser pura sorte. Além disso, você sabe que deixar a resposta em branco é sinônimo de nota zero. Assim, quando os modelos são avaliados somente pela precisão, ou pelas perguntas com respostas exatas, eles são estimulados a adivinharem — e não a dizerem “não sei”.

#ChatGPT #Alucinação

via OpenIA

Disponível em: https://openai.com/pt-BR/index/why-language-models-hallucinate/

Alucinação na Escrita Científica: Explorando Evidências das Versões 3.5 e 40 do ChatGPT… / Journal of the Association for Information Science and Technology

Alucinação na Escrita Científica: Explorando Evidências das Versões 3.5 e 40 do ChatGPT…

Os resultados foram preocupantes: ambas as versões do ChatGPT apresentaram uma alta porcentagem de citações falsas ou inexistentes. Especificamente, a versão 3.5 produziu 42,9% de citações inexistentes, enquanto a versão 4.0 aumentou essa porcentagem para 51,8%. Embora tenha havido uma ligeira melhora na precisão das citações reais, com taxas de acerto de 3,92% na versão 3.5 e 6,35% na versão 40, esses números são muito baixos e destacam sérias limitações em ambos os modelos.

#ChatGPT #EscritaCientífica #Alucinação

Disponível em: https://doi.org/10.1080/19322909.2025.2482093

Voltar ao topo