Ouvir "#33. Por Que Modelos de Linguagem Alucinam?"
Sinopse do Episódio
O documento explora as causas estatísticas das alucinações em modelos de linguagem (LLMs), desde sua origem no pré-treinamento até sua persistência pós-treinamento. Ele argumenta que os LLMs alucinam porque os procedimentos de treinamento e avaliação os recompensam por adivinhar em vez de admitir incerteza. A análise estabelece uma conexão entre erros geradores e a taxa de erro de classificação binária, explicando por que as alucinações não são misteriosas, mas sim um resultado de pressões estatísticas naturais e modelagem inadequada de fatos arbitrários. Os autores propõem uma solução sociotécnica: modificar a pontuação dos benchmarks existentes para penalizar menos as respostas incertas e, assim, direcionar o campo para sistemas de IA mais confiáveis.
Mais episódios do podcast FC Picks
#31. Depeche Mode: Uma Biografia Sintetizada
25/08/2025
#30. How Project 2025 Is Reshaping America
08/08/2025
#29. SuperAgers
08/08/2025