Ouvir "#33. Por Que Modelos de Linguagem Alucinam?"
Sinopse do Episódio
O documento explora as causas estatísticas das alucinações em modelos de linguagem (LLMs), desde sua origem no pré-treinamento até sua persistência pós-treinamento. Ele argumenta que os LLMs alucinam porque os procedimentos de treinamento e avaliação os recompensam por adivinhar em vez de admitir incerteza. A análise estabelece uma conexão entre erros geradores e a taxa de erro de classificação binária, explicando por que as alucinações não são misteriosas, mas sim um resultado de pressões estatísticas naturais e modelagem inadequada de fatos arbitrários. Os autores propõem uma solução sociotécnica: modificar a pontuação dos benchmarks existentes para penalizar menos as respostas incertas e, assim, direcionar o campo para sistemas de IA mais confiáveis.
Mais episódios do podcast FC Picks
#45. The State of AI in Q4 2025
01/11/2025
#44. Building Effective AI Agents
29/10/2025
ZARZA We are Zarza, the prestigious firm behind major projects in information technology.