Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados

14/01/2022 1h 18min

Ouvir "Lambda3 Podcast 282 – Responsabilidade e Ética em Ciência de Dados"

Sinopse do Episódio

Hoje vamos falar um pouco sobre ética e responsabilidade quando do uso de dados, principalmente quando da coleta e análise de grande quantidade de dados e, obviamente, dos problemas advindos do uso de tal Big Data. 
Entre no nosso grupo do Telegram e compartilhe seus comentários com a gente: https://lb3.io/telegram
Feed do podcast: www.lambda3.com.br/feed/podcast
Feed do podcast somente com episódios técnicos: www.lambda3.com.br/feed/podcast-tecnico
Feed do podcast somente com episódios não técnicos: www.lambda3.com.br/feed/podcast-nao-tecnico

Lambda3 · #282 – Responsabilidade e Ética em Ciência de Dados
Pauta:


Quais problemas podem advir do uso indiscriminado de IA & ML?


O que é uso ético e responsável de dados? Por que essa discussão tem surgido com mais força nos últimos anos? Qual a importância?  


Hoje em dia muito se tem discutido a respeito dos vieses em bases de dados e, principalmente, aplicações automatizadas. Como poderíamos definir melhor o que é um uso ético e responsável de dados? 


Questão do viés em dados e algoritmos, existem bons exemplos onde essa questão foi tratada de maneira adequada? 


A discussão sobre ética e responsabilidade em IA é um dilema social ou técnico?  


De quem é a responsabilidade quando tratamos de problemas e preconceitos advindos de sistemas de IA? E ainda sobre isso, qual o papel do desenvolvedor em garantir sistemas éticos? 


Quais os caminhos para começar essa discussão com o meu time e quem deve estar a frente da discussão? 


Os governos devem estabelecer diretrizes e leis sobre isso ou a discussão sobre responsabilidade deve ficar a cargo das empresas? 


O Brasil se encontra em comparação com outros países quando falamos do estado da arte e do desenvolvimento ético em IA? 


Existem frameworks ou técnicas que auxiliam na construção de sistemas de IA garantindo mais transparência e ética? 


Links Citados:

Exemplo de interrupção de uso de reconhecimento facial –  Por que a Cufa interrompeu o uso de reconhecimento facial após polêmica | Tecnologia | G1 (globo.com)
Watch Coded Bias | Netflix
Fairlearn
Responsible AI Resources – Microsoft AI
Responsible AI Toolkit  |  TensorFlow
Responsible AI practices – Google AI
FATE: Fairness, Accountability, Transparency, and Ethics in AI: Projects – Microsoft Research
GitHub – interpretml/interpret: Fit interpretable models. Explain blackbox machine learning.
Fairness, accountability, transparency, ethics – Amazon Science
Justice: What’s The Right Thing To Do? Episode 01 “THE MORAL SIDE OF MURDER” – YouTube
Using the What-If Tool  |  AI Platform Prediction  |  Google Cloud
Google AI Blog: Setting Fairness Goals with the TensorFlow Constrained Optimization Library (googleblog.com)
fairlearn.postprocessing package — Fairlearn 0.5.0 documentation

Participantes:

Ahirton Lopes – @AhirtonLopes
Bianca Ximenes – @biancaxis
Vinicius Caridá – @vfcarida

Edição:

Compasso Coolab

Créditos das músicas usadas neste programa:

Music by Kevin MacLeod (incompetech.com) licensed under Creative Commons: By Attribution 3.0 – creativecommons.org/licenses/by/3.0