Ouvir "#107- Model distillation."
Sinopse do Episódio
Fala galera, nesse episódio eu falo sobre model distillation, que é a tecnica de destilar o conhecimento de um modelo maior para um modelo menor. Essa tecnica tbm é conhecida como teacher-student.No episódio eu abordo o fato de que existem 2 grandes tipos de model distillation, white box e black box distillation.Link do grupo do wpp:https://chat.whatsapp.com/GNLhf8aCurbHQc9ayX5oCPFInstagram do podcast: https://www.instagram.com/podcast.lifewithaiMeu Linkedin: https://www.linkedin.com/in/filipe-lauar/Link da aula no YouTube: https://youtu.be/_XM3MD_I3h0Link do forms de pré-inscrição e feedback: https://forms.gle/fB63Nz98MCRzkMZBA
Mais episódios do podcast Vida com IA
#140- A corrida dos LLMs.
11/12/2025
#137- Dicas de prompt.
20/11/2025
#136- Reinforcement Learning.
13/11/2025
#134- DeepSeek OCR é bom mesmo??
30/10/2025
#132- História dos LLMs.
16/10/2025
ZARZA We are Zarza, the prestigious firm behind major projects in information technology.