Ouvir "Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados"
Sinopse do Episódio
Hoje vamos falar um pouco sobre ética e responsabilidade quando do uso de dados, principalmente quando da coleta e análise de grande quantidade de dados e, obviamente, dos problemas advindos do uso de tal Big Data.
Entre no nosso grupo do Telegram e compartilhe seus comentários com a gente: https://lb3.io/telegram
Feed do podcast: www.lambda3.com.br/feed/podcast
Feed do podcast somente com episódios técnicos: www.lambda3.com.br/feed/podcast-tecnico
Feed do podcast somente com episódios não técnicos: www.lambda3.com.br/feed/podcast-nao-tecnico
Lambda3 · #282 – Responsabilidade e Ética em Ciência de Dados
Pauta:
Quais problemas podem advir do uso indiscriminado de IA & ML?
O que é uso ético e responsável de dados? Por que essa discussão tem surgido com mais força nos últimos anos? Qual a importância?
Hoje em dia muito se tem discutido a respeito dos vieses em bases de dados e, principalmente, aplicações automatizadas. Como poderíamos definir melhor o que é um uso ético e responsável de dados?
Questão do viés em dados e algoritmos, existem bons exemplos onde essa questão foi tratada de maneira adequada?
A discussão sobre ética e responsabilidade em IA é um dilema social ou técnico?
De quem é a responsabilidade quando tratamos de problemas e preconceitos advindos de sistemas de IA? E ainda sobre isso, qual o papel do desenvolvedor em garantir sistemas éticos?
Quais os caminhos para começar essa discussão com o meu time e quem deve estar a frente da discussão?
Os governos devem estabelecer diretrizes e leis sobre isso ou a discussão sobre responsabilidade deve ficar a cargo das empresas?
O Brasil se encontra em comparação com outros países quando falamos do estado da arte e do desenvolvimento ético em IA?
Existem frameworks ou técnicas que auxiliam na construção de sistemas de IA garantindo mais transparência e ética?
Links Citados:
Exemplo de interrupção de uso de reconhecimento facial – Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica | Tecnologia | G1 (globo.com)
Watch Coded Bias | Netflix
Fairlearn
Responsible AI Resources – Microsoft AI
Responsible AI Toolkit | TensorFlow
Responsible AI practices – Google AI
FATE: Fairness, Accountability, Transparency, and Ethics in AI: Projects – Microsoft Research
GitHub – interpretml/interpret: Fit interpretable models. Explain blackbox machine learning.
Fairness, accountability, transparency, ethics – Amazon Science
Justice: What’s The Right Thing To Do? Episode 01 “THE MORAL SIDE OF MURDER” – YouTube
Using the What-If Tool | AI Platform Prediction | Google Cloud
Google AI Blog: Setting Fairness Goals with the TensorFlow Constrained Optimization Library (googleblog.com)
fairlearn.postprocessing package — Fairlearn 0.5.0 documentation
Participantes:
Ahirton Lopes – @AhirtonLopes
Bianca Ximenes – @biancaxis
Vinicius Caridá – @vfcarida
Edição:
Compasso Coolab
Créditos das músicas usadas neste programa:
Music by Kevin MacLeod (incompetech.com) licensed under Creative Commons: By Attribution 3.0 – creativecommons.org/licenses/by/3.0
Entre no nosso grupo do Telegram e compartilhe seus comentários com a gente: https://lb3.io/telegram
Feed do podcast: www.lambda3.com.br/feed/podcast
Feed do podcast somente com episódios técnicos: www.lambda3.com.br/feed/podcast-tecnico
Feed do podcast somente com episódios não técnicos: www.lambda3.com.br/feed/podcast-nao-tecnico
Lambda3 · #282 – Responsabilidade e Ética em Ciência de Dados
Pauta:
Quais problemas podem advir do uso indiscriminado de IA & ML?
O que é uso ético e responsável de dados? Por que essa discussão tem surgido com mais força nos últimos anos? Qual a importância?
Hoje em dia muito se tem discutido a respeito dos vieses em bases de dados e, principalmente, aplicações automatizadas. Como poderíamos definir melhor o que é um uso ético e responsável de dados?
Questão do viés em dados e algoritmos, existem bons exemplos onde essa questão foi tratada de maneira adequada?
A discussão sobre ética e responsabilidade em IA é um dilema social ou técnico?
De quem é a responsabilidade quando tratamos de problemas e preconceitos advindos de sistemas de IA? E ainda sobre isso, qual o papel do desenvolvedor em garantir sistemas éticos?
Quais os caminhos para começar essa discussão com o meu time e quem deve estar a frente da discussão?
Os governos devem estabelecer diretrizes e leis sobre isso ou a discussão sobre responsabilidade deve ficar a cargo das empresas?
O Brasil se encontra em comparação com outros países quando falamos do estado da arte e do desenvolvimento ético em IA?
Existem frameworks ou técnicas que auxiliam na construção de sistemas de IA garantindo mais transparência e ética?
Links Citados:
Exemplo de interrupção de uso de reconhecimento facial – Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica | Tecnologia | G1 (globo.com)
Watch Coded Bias | Netflix
Fairlearn
Responsible AI Resources – Microsoft AI
Responsible AI Toolkit | TensorFlow
Responsible AI practices – Google AI
FATE: Fairness, Accountability, Transparency, and Ethics in AI: Projects – Microsoft Research
GitHub – interpretml/interpret: Fit interpretable models. Explain blackbox machine learning.
Fairness, accountability, transparency, ethics – Amazon Science
Justice: What’s The Right Thing To Do? Episode 01 “THE MORAL SIDE OF MURDER” – YouTube
Using the What-If Tool | AI Platform Prediction | Google Cloud
Google AI Blog: Setting Fairness Goals with the TensorFlow Constrained Optimization Library (googleblog.com)
fairlearn.postprocessing package — Fairlearn 0.5.0 documentation
Participantes:
Ahirton Lopes – @AhirtonLopes
Bianca Ximenes – @biancaxis
Vinicius Caridá – @vfcarida
Edição:
Compasso Coolab
Créditos das músicas usadas neste programa:
Music by Kevin MacLeod (incompetech.com) licensed under Creative Commons: By Attribution 3.0 – creativecommons.org/licenses/by/3.0
Mais episódios do podcast Lambda3 Podcast
Lambda3 Podcast 455 - TIVIT Decisions
10/10/2025
Lambda3 Podcast 454 - Carreira 50+
03/10/2025
Lambda3 Podcast 450 - Do scrum ao híbrido
05/09/2025