Ouvir "#48 - Attention is all you need. Entendendo Transformers."
Sinopse do Episódio
Fala galera, nesse episódio eu finalmente explico a rede Transformers! O artigo Attention is all you need que propos o modelo de Transformer foi revolucionário para o domínio de NLP e agora também está revolucionando todos as áreas de Deep Learning. No episódio eu explico o modelo de atenção, self-attention e multi-head attention para ambos Encoder e Decoder, além do famoso positional encoding. Vão lá escutar o episódio porque ele ficou muito bom!
Original paper: https://arxiv.org/pdf/1706.03762.pdf
Self-attention GitHub code: https://github.com/filipelauar/projects/blob/main/self_attention.ipynb
YouTube video explaining the architecture: https://www.youtube.com/watch?v=TQQlZhbC5ps
Nice blog post with code 1: http://peterbloem.nl/blog/transformers
Nice blog post with code 2: https://nlp.seas.harvard.edu/2018/04/03/attention.html
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
Original paper: https://arxiv.org/pdf/1706.03762.pdf
Self-attention GitHub code: https://github.com/filipelauar/projects/blob/main/self_attention.ipynb
YouTube video explaining the architecture: https://www.youtube.com/watch?v=TQQlZhbC5ps
Nice blog post with code 1: http://peterbloem.nl/blog/transformers
Nice blog post with code 2: https://nlp.seas.harvard.edu/2018/04/03/attention.html
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
Mais episódios do podcast Vida com IA
#128- Embeddings e vetores de alta dimensão.
04/09/2025
#127- Como eu uso vibe coding e Cursor.
28/08/2025
#126- Contratações milionárias na Meta.
21/08/2025
#125- GPT5.
14/08/2025
#123- Como a Alexa funciona?
31/07/2025