사이언스올

통합검색

찾기

[핫클립] 알고리즘의 젠더 편향 사례

작성일 2022-11-06
제품, 서비스, 기술 분야에서 성별 편향성이 존재하는 많은 사례가 있다. 대부분의 얼굴 인식 알고리즘에서 백인을 가장 정확하게 인식하고, 채용 과정에서 사용된 알고리즘은 여성을 다 버리는 오류를 범하고, 신용도가 높은 여성에게 더 적은 신용 한도를 부여하였다. 인공지능으로 차별을 받은 사람들은 누구에게 책임을 물어야 할까? ======================================== ※ Full 영상 ▶ https://youtu.be/r2rOyDKDe3k ※ YTN사이언스 구독하기 ▶ https://bit.ly/3raTL0t ======================================== #젠더편향 #알고리즘 #성별편향성 #남녀차별 #인공지능 알고리즘의 젠더 편향 사례 / YTN 사이언스 [YTN 사이언스 기사원문] https://science.ytn.co.kr/program/view_hotclip.php?mcd=0085&key=202210211631529217 [프로그램 제작 문의] legbiz@ytn.co.kr

댓글 남기기

로그인 후 댓글을 남길 수 있습니다.

전체 댓글수 0

The Science Times
과학문화바우처
사이언스 프렌즈
STEAM 융합교육
CreZone 크레존
문화포털
과학누리
교육기부
EDISON
과학기술인재 진로지원센터