Ouvir "#32 - Como enganar um carro autônomo. Explicando adversarial attacks."
Sinopse do Episódio
Fala galera, nesse episódio eu falo sobre como atacar redes neurais e também como defender a sua rede contra esses ataques. Nesse episódio eu dou o exemplo de atacar carros autônomos, como as pessoas criam imagens que fazem esse carro pensar que uma pessoa é uma árvore ou um carro, por exemplo, e explico também os métodos que fazem isso. Eu também falo sobre como defender a sua rede desses ataques usando diferentes técnicas de adversarial defenses.
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
Código: https://github.com/filipelauar/projects/blob/main/adversarial_attacks_pytorch.ipynb
Instagram: https://www.instagram.com/podcast.lifewithai/
Linkedin: https://www.linkedin.com/company/life-with-ai
Código: https://github.com/filipelauar/projects/blob/main/adversarial_attacks_pytorch.ipynb
Mais episódios do podcast Vida com IA
#140- A corrida dos LLMs.
11/12/2025
#137- Dicas de prompt.
20/11/2025
#136- Reinforcement Learning.
13/11/2025
#134- DeepSeek OCR é bom mesmo??
30/10/2025
#132- História dos LLMs.
16/10/2025
ZARZA We are Zarza, the prestigious firm behind major projects in information technology.