Por que os modelos de linguagem alucinam? / OpenIA
A persistência das alucinações se deve em parte aos incentivos oferecidos pelos métodos de avaliação que estão sendo usados. Embora as avaliações não provoquem as alucinações diretamente, a maioria delas mede o desempenho do modelo de uma forma que favorece adivinhações, em vez de reconhecer uma incerteza.
É como se fosse um teste de múltipla escolha. Se você não sabe, mas chuta uma resposta, pode acabar acertando. Mas vai ser pura sorte. Além disso, você sabe que deixar a resposta em branco é sinônimo de nota zero. Assim, quando os modelos são avaliados somente pela precisão, ou pelas perguntas com respostas exatas, eles são estimulados a adivinharem — e não a dizerem “não sei”.
#ChatGPT #Alucinação
via OpenIA
Disponível em: https://openai.com/pt-BR/index/why-language-models-hallucinate/

