[핫클립] 알고리즘의 젠더 편향 사례
2022-11-06
제품, 서비스, 기술 분야에서 성별 편향성이 존재하는 많은 사례가 있다.
대부분의 얼굴 인식 알고리즘에서 백인을 가장 정확하게 인식하고,
채용 과정에서 사용된 알고리즘은 여성을 다 버리는 오류를 범하고,
신용도가 높은 여성에게 더 적은 신용 한도를 부여하였다.
인공지능으로 차별을 받은 사람들은 누구에게 책임을 물어야 할까?
========================================
※ Full 영상 ▶ https://youtu.be/r2rOyDKDe3k
※ YTN사이언스 구독하기 ▶ https://bit.ly/3raTL0t
========================================
#젠더편향 #알고리즘 #성별편향성 #남녀차별 #인공지능
알고리즘의 젠더 편향 사례 / YTN 사이언스
[YTN 사이언스 기사원문] https://science.ytn.co.kr/program/view_hotclip.php?mcd=0085&key=202210211631529217
[프로그램 제작 문의] legbiz@ytn.co.kr
- 다음
- [핫클립] 좋은 데이터의 조건은 무엇일까? 2022.11.06
- 이전
- [다큐S프라임] 10년 전에 예측된 2022 노벨물리학상 『노벨상, 기초과학의 힘, 1부』 2022.11.06
관련 콘텐츠
댓글 남기기
전체 댓글수 0