Ouvir "Teste de Turing #6: Abrindo a caixa preta das redes neurais"
Sinopse do Episódio
Neste episódio, Erick Fonseca conversa com Marcos Treviso sobre as questões de tentar entender e explicar as decisões de modelos computacionais cada vez mais complexos de NLP. Conversamos sobre explicabilidade, fidelidade, inteligibilidade, e os desafios que essa área já demonstra.
Alguns links interessantes sobre o assunto:
Um livro online sobre "Machine Learning Interpretável": https://christophm.github.io/interpretable-ml-book/interpretability.html
Black Box NLP: um workshop anual de NLP dedicado a entender melhor os modelos neurais: https://blackboxnlp.github.io/
Um artigo discutindo o conceito de explicabilidade: The Mythos of Model Interpretability
Um artigo trazendo ideias das ciências sociais para explicabilidade: Explanation in artificial intelligence: Insights from the social sciences
Alguns links interessantes sobre o assunto:
Um livro online sobre "Machine Learning Interpretável": https://christophm.github.io/interpretable-ml-book/interpretability.html
Black Box NLP: um workshop anual de NLP dedicado a entender melhor os modelos neurais: https://blackboxnlp.github.io/
Um artigo discutindo o conceito de explicabilidade: The Mythos of Model Interpretability
Um artigo trazendo ideias das ciências sociais para explicabilidade: Explanation in artificial intelligence: Insights from the social sciences
Mais episódios do podcast Teste de Turing
Teste de Turing #7: Parsers sintáticos
05/10/2020
Teste de Turing #4 - Tradução Automática
01/03/2020
Teste de Turing #3: Reconhecimento de Voz
01/02/2020
ZARZA We are Zarza, the prestigious firm behind major projects in information technology.