Sinopse do Episódio "Teste de Turing #6: Abrindo a caixa preta das redes neurais"
Neste episódio, Erick Fonseca conversa com Marcos Treviso sobre as questões de tentar entender e explicar as decisões de modelos computacionais cada vez mais complexos de NLP. Conversamos sobre explicabilidade, fidelidade, inteligibilidade, e os desafios que essa área já demonstra. Alguns links interessantes sobre o assunto: Um livro online sobre "Machine Learning Interpretável": https://christophm.github.io/interpretable-ml-book/interpretability.html Black Box NLP: um workshop anual de NLP dedicado a entender melhor os modelos neurais: https://blackboxnlp.github.io/ Um artigo discutindo o conceito de explicabilidade: The Mythos of Model Interpretability Um artigo trazendo ideias das ciências sociais para explicabilidade: Explanation in artificial intelligence: Insights from the social sciences
Ouvir "Teste de Turing #6: Abrindo a caixa preta das redes neurais"
Mais episódios do podcast Teste de Turing
- Teste de Turing #7: Parsers sintáticos
- Teste de Turing #6: Abrindo a caixa preta das redes neurais
- Teste de Turing #5: Wordnets e Recursos Lexicais
- Teste de Turing #4 - Tradução Automática
- Teste de Turing #3: Reconhecimento de Voz
- Teste de Turing #2: Redes neurais fantásticas e onde habitam
- Teste de Turing #1: História das Tecnologias de Linguagem