Sinopse do Episódio "Teste de Turing #2: Redes neurais fantásticas e onde habitam"
Neste episódio, falamos sobre modelos de NLP que têm revolucionado o estado-da-arte de várias aplicações de tecnologias da linguagem. Em particular, falamos do ELMo, BERT, GPT-2 e da avaliação no GLUE benchmark. Biblioteca python de transformers, que facilita incluir o BERT ou GPT-2 no seu código: http://huggingface.co/transformers/ Anúncio original do GPT-2: https://openai.com/blog/better-language-models Gerador de texto online com o GPT-2 (treinado só em inglês): http://talktotransformer.com Post do Erick com o GPT-2 treinado na Wikipedia em português para gerar novos artigos: https://bit.ly/2sDT0kK Twitter: @testedeturing Contato: [email protected]
Ouvir "Teste de Turing #2: Redes neurais fantásticas e onde habitam"
Mais episódios do podcast Teste de Turing
- Teste de Turing #7: Parsers sintáticos
- Teste de Turing #6: Abrindo a caixa preta das redes neurais
- Teste de Turing #5: Wordnets e Recursos Lexicais
- Teste de Turing #4 - Tradução Automática
- Teste de Turing #3: Reconhecimento de Voz
- Teste de Turing #2: Redes neurais fantásticas e onde habitam
- Teste de Turing #1: História das Tecnologias de Linguagem