Ouvir "#03: redes neurais e transformers"
Sinopse do Episódio
No episódio #03 do SABIÁ, a gente viaja pela história fascinante das redes neurais e dos transformers — os alicerces por trás das inteligências artificiais mais avançadas de hoje, como o ChatGPT. Começamos com os neurônios biológicos que inspiraram os primeiros modelos matemáticos, passando pelos perceptrons, o inverno da IA, até chegar ao renascimento com o deep learning. Explicamos como surgiu o campo do Processamento de Linguagem Natural (NLP) e como os transformers revolucionaram a forma de lidar com linguagem e dados. Um episódio para quem quer entender como a matemática e a biologia se entrelaçam no coração das máquinas que hoje escrevem, traduzem, desenham e até conversam com a gente.Este episódio contou com o apoio da FAPESP e da Fundação Roberto Marinho.___APRESENTAÇÃO:Bruno Franchi | Física – UnicampLuana Vicentin | Comunicação Social – UnicampROTEIRO:Bruno FranchiLuana VicentinVictor VicenteREVISÃO:Leandro TesslerCOORDENAÇÃO GERAL:Leandro TesslerVictor VicenteEDIÇÃO:Aluísio AugustoLuana VicentinAPOIO:FAPESP [Bolsa Comunicar Ciência]Fundação Roberto MarinhoREALIZAÇÃO:BI0S – Brazilian Institute of Data Science | Unicamp
Mais episódios do podcast SABIÁ: inteligência artificial à brasileira
#06: IA e agronegócio
22/07/2025
#05: IA e clima
30/06/2025
#04: algoritmos de recomendação de conteúdo
09/06/2025
#02: inteligência artificial generativa
12/05/2025
#01: o que é inteligência artificial?
22/04/2025
ZARZA We are Zarza, the prestigious firm behind major projects in information technology.