PGR21.com
- 자유 주제로 사용할 수 있는 게시판입니다.
- 토론 게시판의 용도를 겸합니다.
Date 2021/10/23 22:11:32
Name 아케이드
Link #1 https://www.bbc.com/korean/international-55945575?xtor=AL-73-%5Bpartner%5D-%5Bnaver%5D-%5Bheadline%5D-%5Bkorean%5D-%5Bbizdev%5D-%5Bisapi%5D
Subject 성차별하는 AI (수정됨)
최근 AI 채용이 늘어나는 추세인데,

언뜻 생각하면 AI가 블라인드 방식으로 채용하게 되면 선입견과 편견없이 공정하게 채용할 거 같지만

실제로는 인간 면접관보다 훨씬 차별적인 결과로 나타나고 있다고 합니다.

대부분의 AI 채용은 결과적으로 여성을 차별하고 있고,

아마존에서 개발한 AI 채용 프로그램은 노골적인 성차별 때문에 폐기처분되기도 했다고 합니다.


아마존의 경우, 채용 AI에게 학습을 시킬때,

지난 10년간의 아마존 입사자들의 이력 데이터를 입력해 학습을 시켰는데

이렇게 개발된 채용 AI가 노골적으로 여성 혹은 여성적 특성을 보이는 사람들을 배제하는 성차별 성향을 보였다고 합니다.


이런 데이터 기반 방식을 보완하기 위해서 게임 방식을 도입한 곳도 있는데요.

여러가지 간단한 게임을 통해, 순발력, 추리력, 판단력, 인지능력 등을 평가하는 방식으로 되어 있습니다.

그런데 문제는 이런 게임 방식도 결과적으로 남자들이 더 높은 점수를 받게 된다고 합니다.

남자들이 여자들보다 게임을 더 많이 접해서 유리할 수도 있고,

게임이라는 것 자체가 원래 남자에게 유리할 수도 있겠지만

어쨌건 이런 방식도 결국은 기존 방식 즉, 인간이 직접 채용할 때보다 더 차별적인 결과를 산출한다는 거죠


어쩌면 AI가 인간보다 더 피눈물 없이 냉정하게 평가하고 있는 것일 수도 있습니다만,


현실적으로는 어쨌건 노골적인 성차별은 용납될 수 없는 것이기 때문에

여성이 불리하지 않을 수 있는 보완책들이 필요하다는 의견들이 대두되고 있다고 합니다.

그게 가산점이 될지, 할당제가 될지는 모르겠지만요


--------------------------------------------------------------

AI 채용: '인공지능'이 내 이력서를 탈락시킨다면?
https://www.bbc.com/korean/international-55945575?xtor=AL-73-%5Bpartner%5D-%5Bnaver%5D-%5Bheadline%5D-%5Bkorean%5D-%5Bbizdev%5D-%5Bisapi%5D

인공지능 업계에도 엄연히 존재하는 성별 격차, 어떻게 극복할까
http://www.aitimes.com/news/articleView.html?idxno=140752

AI도 성차별 한다?...아마존 ‘AI 채용’ 개발하다 폐기
https://www.sedaily.com/NewsView/1S5VDDJDOB

통합규정 1.3 이용안내 인용

"Pgr은 '명문화된 삭제규정'이 반드시 필요하지 않은 분을 환영합니다.
법 없이도 사는 사람, 남에게 상처를 주지 않으면서 같이 이야기 나눌 수 있는 분이면 좋겠습니다."
CoMbI COLa
21/10/23 22:22
수정 아이콘
문외한이 제가 볼 때는 단순히 성별 고려 항목을 체크해제 하면 되지 않나 싶은데 그렇게 못 하는 이유가 있겠죠?
아케이드
21/10/23 22:29
수정 아이콘
https://www.sedaily.com/NewsView/1S5VDDJDOB
기사를 보면 남녀를 구분해서 데이터를 입력했는 지는 불명확합니다. 다만, 여대 출신이나 여성 동호회 등 '여성'과 관련된 활동을 한 입사자들이 노골적으로 배제되었다고 하네요
CoMbI COLa
21/10/23 23:48
수정 아이콘
그러고보면 학력이나 스펙에 포함된 활동을 배제할 수는 없으니 AI가 분석하는 과정에서 알게 되는거군요. 물론 사람이 일일이 관련된 데이터를 예외로 두면 되기야 하겠지만 그러면 딥러닝의 의미가 사라지고요.
인버스
21/10/23 22:26
수정 아이콘
(수정됨) .
삼화야젠지야
21/10/23 22:41
수정 아이콘
데이터가 장기적이라 출산에 대한 영향이 나타났다면 저도 이게 아닐까 싶어요. 그리고 출산율이 걱정인 나라는 제도적으로 이런걸 막아야 하는게 맞을거고요.
21/10/23 22:27
수정 아이콘
(수정됨) 3번째 기사가 남성 위주의 데이터에 이유가 있다고 하지만
솔직히 제대로 생각하면 흔히 말하는 머리쓰는 스포츠 바둑이나 e스포츠에서도 여자가 활약 못하는데 일반 직업에서 다를게 있나 싶습니다
개개인으로 보면 남자보다 나은 여자가 있을지 모르지만 평균적으로 생각해서 뽑으면 남성위주 데이터의 문제가 아니죠

수능만 봐도 최상위권은 남자가 많고 중상위에 여자가 많다고 나오는데
구글 같은 대기업이 중상위권 뽑을리도 없고
21/10/23 22:38
수정 아이콘
바둑이나 e스포츠는 걍 남녀 인재풀의 차이가 워낙 극명하지 않나요?
삼화야젠지야
21/10/23 22:44
수정 아이콘
저도 여기 한표. 어릴적 바둑학원 다닐 때 여자애 두명인가? 있었어요.

별개로, 바둑 얘기하시는 분들은 바둑이 다른 스포츠만큼은 아니더라도 체력 영향이 큰 종목인걸 간과하시는 경우가 많더라구요.
21/10/23 22:54
수정 아이콘
바둑까진 아니겟지만 모든일이 다 집중이 필요하고 다 체력 필요하죠 특히 최상위권 갈수록....
한방에발할라
21/10/23 22:49
수정 아이콘
인재풀 차이로는 설명 안되는 부분이 많습니다. 여성 정상 기사들과 남성 정상 기사들 비교하면 2차 성징 이전에는 오히려 여성 정상 기사들이 더 잘했다는 케이스가 수도 없이 많아요. 보통 실력이 비슷하거나 여성이 더 우위인 케이스도 2차 성징 지나면서 남자가 중학생 들어갈 때즈음부터 실력이 급속도로 벌어집니다. 이런 케이스는 바둑만이 아니라 일본 쇼기나 체스에서도 자주 목격됩니다
삼화야젠지야
21/10/23 23:41
수정 아이콘
그 부분이 체력 아닌가 싶네요. 2차성징 이후 체력이 벌어지지 않을까 싶고.
깻잎튀김
21/10/24 15:13
수정 아이콘
2차 성징 이야기는 이런 말이 있죠. 염색체든 호르몬 분비든 그 차이로 인해 신체적 특성이 현격하게 차이가 나게 되는데, 과연 이러한 변화가 뇌만 놔두고 신체에만 한정될리가 있느냐는 것이죠.
21/10/23 22:56
수정 아이콘
인종 차이도 꽤 있을 스포츠에서 한국인 인재풀이 많지도 않은데 박지성이니 손흥민이니 나왔었죠
그 급은 아니더라도 나름 활약할 한두명은 나올만 한데 안나오는거 보면...
이민들레
21/10/24 01:14
수정 아이콘
김연경 김연아
21/10/24 01:18
수정 아이콘
(수정됨) 김연경 김연아가 여자판에서지 남자랑 스포츠 같이 해서 이기진 않았죠
이민들레
21/10/24 01:22
수정 아이콘
엥?? 뭔소린지 모르겠어요. 여자가 애시당초 몸쓰는 스포츠에서 남자를 이길 수가 있어요?? 축구에서??? 그럼 양궁 금메달리스트들?
21/10/24 01:27
수정 아이콘
바둑판이니 e스포츠에서 남자랑 비빌만한 여성분이 안나온다 얘기하고 있는건데요

한국 여성 스포츠 스타가 안나온다가 아니라
이민들레
21/10/24 01:28
수정 아이콘
아항 인재풀이 적어도 나오긴 나온다는 뜻이군요.
공실이
21/10/24 08:49
수정 아이콘
인종차이는 생각보다 크지 않습니다.
좌종당
21/10/24 09:31
수정 아이콘
e스포츠는 그렇지만 바둑은 중국 여성기사들 생각해보면 한국남성기사보다 풀이 더 적다 하긴 힘들겠죠.

또 14년도 기사긴하지만 이런기사를보면 https://www.joongang.co.kr/article/14602390
대륙답게 지원이 한국하곤 질이 달라서...
나스라이
21/10/23 23:11
수정 아이콘
(수정됨) 단순 인재풀 문제라기보다는, 여성 바둑 기사가 분석한 글에서 '남녀 기사 사이의 체력적 차이가 너무 크다' 라고 말하는 거 보면 확실히 체력 문제가 큰 것 같습니다. 어느 시점부터 집중력 차이로 크게 벌어진다고 하더군요. 아마도 대국 중반~끝내기 부분, 즉, 정신력이 가장 소모되면서 집중력이 떨어지는 지점이겠죠.
저도 이 의견에 어느 정도 공감하는 편입니다. 정신력 소모에는 체력이 크게 작용하니까요. 조훈현 같은 기사도 '체력이 부족해서 밀리는 걸 느껴서 체력을 기르기 위해 등산을 하기 시작했다'라는 인터뷰도 있었고, 체력과는 연관이 없을 것 같은 이스포츠 쪽도 체력적 문제를 많이 신경쓰니까요.
삼화야젠지야
21/10/23 23:33
수정 아이콘
몇시간이고 앉아서 계속 집중해야하니 체력소모가 크죠. 또 바둑은 시간제한이 있다보니 중간중간 쉬는게 불가능하고.
나스라이
21/10/24 00:16
수정 아이콘
네, 말씀하신대로입니다. 체스 바둑 쇼기 이스포츠 등에서 남녀차이가 크게 나는 이유도 그래서겠지요.
여기에있어
21/10/25 12:41
수정 아이콘
비슷한 논의의 기사를 본적이 있는데 미국에서 법대, 의대, 박사 등등 대부분의 선호되는 전공에서는 커리어 초반에는 이미 여성의 숫자가 남성을 대부분 뛰어넘었는데, 컴공만 유일한 예외래요. 이것에 대한 가장 유력한 설명은 어린 시절 컴퓨터를 가지고 놀던 경험이 굉장히 큰 차이가 아닐까 한답니다.
VictoryFood
21/10/23 22:28
수정 아이콘
AI 가 과거의 데이타로 학습을 할 때에 과거의 데이타가 왜곡이 되어있는 상태일 때에 AI를 그대로 학습시키는 것이 맞는가
라는 질문을 던질 수도 있겠네요.
과거의 데이타가 왜곡이냐 아니냐에 대한 가치판단과 별개로요.
Rouge Scout
21/10/23 22:29
수정 아이콘
남자가 여자보다 평균적으로 업무퍼포먼스가 좋다는 과거 data를 보고 AI가 그렇게 판단하는 거겠죠...
뭐 실제로 주위를 봐도 그렇긴 하죠.
jjohny=쿠마
21/10/24 01:35
수정 아이콘
원래 기사에는 업무 퍼포먼스 얘기가 없습니다.
아래 댓글 참고 바랍니다.
깻잎튀김
21/10/23 22:33
수정 아이콘
판별하고보니 더 낮은 점수를 받은 측이 여자였다, 흑인이었다는 학습이 쌓이다보면 여자다, 흑인이다는 팩터 만으로도 판단을 내리겠죠. 사람이 가지는 귀납적 오류를 그대로 따라하게 되는 것인데 성별인종 팩터를 제외하도록 강제하면 될까도 싶지만 영상면접의 경우 얼굴과 피부색에서 배제하라고 해봐야 어떻게든 음성, 영상에서 추출할 수 있는 정보로 성별, 인종 클러스터링을 성공적으로 할텐데 말이죠. 그래서 아마존이 진작에 포기한게 아닐까요.
아케이드
21/10/23 22:38
수정 아이콘
차별하지 않겠다는 이유로 정보를 어디까지 배제해야 하느냐도 문제가 되겠고 그렇게 정보를 배제하다 보면 결국 AI채용의 정확성이 떨어져 도입 취지가 무색해지는 본말전도가 발생할 수 있다는 점도 있겠죠
아마존은 인권단체가 아니고 회사니까요 그래서 어려운 문제인 거 같아요
21/10/23 22:44
수정 아이콘
(수정됨) 기사보니까 그냥 원래 직원수가 남자들이 훨씬 더 많았어서 당연히 좋은 실적낸 사람들의 절대적인 숫자는 남자가 더 많았기에 저런 결과가 나온것이라고 나오는데 본문이랑 내용이 많이 다른거 같은데요.

기사 정말 제대로 보시고 쓰신거 맞아요? 의도가 있는 글로밖에 안보이네요.
아케이드
21/10/23 22:49
수정 아이콘
해당 기사쓴 기자가 AI 학습에 대한 이해가 부족하거나 현실부정이라고 봅니다

아마존 개발자들이 바보도 아니고 단순히 수가 많다고 더 좋은 점수를 받게 설계를 했을 리가 없죠
그렇게 편향된 설계를 할 정도였다면 결과가 성차별적으로 나왔다고 폐기처분을 할 리도 없구요.
당연히 비율을 고려했을 것이고 그럼에도 불구하고 저런 결과가 나왔다고 보는게 합리적이라고 봅니다

그리고, 무슨 의도를 말씀하시는 건가요 좀 더 명확하게 말씀해 주셔야 답변을 하든지 할 수 있을 듯 합니다
21/10/23 22:54
수정 아이콘
그럼 해외에 있는 다른 자료를 가져오시던가 본인이 가져오신 자료에 떡하니 저렇게 적혀있는데 본문에는 저렇게 쓰시니 그렇죠.
아케이드
21/10/23 22:55
수정 아이콘
기사에서는 팩트만 읽습니다. 기자의 의견은 그냥 그 기자의 개인 의견이니 스킵하구요
그래도 나름 AI채용의 성차별에 대해 비판적인 의견을 가진 기사만 퍼온 거긴 합니다
21/10/23 22:50
수정 아이콘
비율 고려를 안 할 정도의 개발자가 아마존에 있을까요
21/10/23 22:57
수정 아이콘
작성자께서 들고오신 자료에 그렇게 적혀있습니다.
아케이드
21/10/23 23:02
수정 아이콘
해당 기사는 원문 기사에도 없는 내용을 기사 상상력으로 써놓은 듯하네요
오해의 소지가 많아서 다른 기사로 대체했습니다.
jjohny=쿠마
21/10/24 01:36
수정 아이콘
개발자가 비율 고려 안한 문제는 아닙니다. 아래 댓글 찹고 바랍니다.
플러스
21/10/23 23:05
수정 아이콘
AI가 과거의 데이터를 바탕으로 "잘" 판단하고 있네요.
뭐가 문제인지 모르겠습니다만
아케이드
21/10/23 23:08
수정 아이콘
'여성이 여성이 가진 특성 때문에 차별받아야 하는가'라는 성평등의 기본과 관련된 문제인 것이라서 문제가 되는 거겠죠
그게 설사 업무에 불리하게 작용할 가능성이 있다라도 그걸 이유로 차별받아서는 안된다는 것이고,
그래서 그런 결과를 도출하기 위한 연구가 필요한 것 같습니다.
AI채용 때문에 남성에 비해 여성이 취업시장에서 현저하게 불리해진다면 그 자체로 사회문제가 될 테니까요
플러스
21/10/23 23:25
수정 아이콘
업무에 불리하게 작용할 가능성이 있다면 그걸 이유로 차별받는게 아니라 평가받는거죠.
AI는 잘 평가해서 잘 뽑은거구요
21/10/23 23:22
수정 아이콘
사실과는 별개로, 정치적 문제가 있는거죠. 굉장히 불편한 결과로 받아들일 사람이 상당수기 때문에.
플러스
21/10/23 23:27
수정 아이콘
동의합니다.
그리고 제가 문제없다고 한 것은, 정치적 문제가 없다는 뜻이 아닙니다
21/10/23 23:32
수정 아이콘
잘 판단했다는 소리는 없습니다. 애초에 폐기되었을뿐더러 성차별만 문제가 아니라 강력한 후보를 뽑아내는것에 실패했다고 하는군요.
https://www.inc.com/guadalupe-gonzalez/amazon-artificial-intelligence-ai-hiring-tool-hr.html
아케이드
21/10/23 23:37
수정 아이콘
'강력한 후보자'가 뭘 말하는 지는 모르겠지만, 채용 프로그램은 부분적으로라도 일단 도입해서 결과를 평가해 보지 않으면 정확성을 측정할 수 없죠
그래서 전면도입하기 전에 부분적으로 도입해서 써보는 회사가 늘어나고 있는 추세입니다
jjohny=쿠마
21/10/24 01:23
수정 아이콘
(수정됨) AI가 과거의 데이터를 바탕으로 잘 판단하지 못했다는 게 기사 내용인데,
본문에서 기사 내용이 좀 잘못 전달되어 있습니다.

아래에 댓글 작성했습니다.
21/10/23 23:28
수정 아이콘
양성평등채용제나 지역인재채용 제도 등을 생각한다면 인간의 현행 채용 과정이 딱히 덜 차별적이라 생각되진 않습니다.
다만 어디에 어떻게 차별을 둘 것이냐에 있어서 AI는 가중치가 블랙박스화 되어있기 때문에 문제가 될 수 있겠죠.
jjohny=쿠마
21/10/24 00:03
수정 아이콘
(수정됨) 이건 저도 직장에서 관련 일도 몇 번 해보고 하면서 좀 더 자세히 알아봤었는데,

채용 AI에 따른 채용 결과에서 성차별 뿐 아니라 인종차별도 관찰되고 해서 문제가 많은 것으로 알려져 있습니다.

제가 알기로 가장 많이 나온 얘기는, 본문에서 추측하신 입사후 실적이 문제가 아니고,
[지금까지 누적된 채용 데이터 자체가 여성과 유색인종을 적게 뽑는 방향으로 누적되어 왔기 때문에](또는 지원자의 수라든가, 채용 이후의 승진 커리어라든가 하는 부분도 비슷할 수 있고), 그걸 학습한 AI가 비슷한 방향을 유지하는 문제가 있다는 것으로 알고 있습니다.

링크하신 BBC 기사에서도 그런 얘기가 나오죠.
"AI 채용 시스템은 예전 합격자들을 살펴본다. ['과거의 최고 경영자는 누구였지?', '과거의 옥스퍼드 교수들은 누구였지?']하는 식이다." 여성이나 유색인종들에게 불리하게 작용한다는 겁니다.
아케이드
21/10/24 00:10
수정 아이콘
말씀하신 대로 단순한 숫자 크기가 문제라면 해결이 어렵지 않을 텐데 말이죠
예를 들어, 입사인원이 100명인 특정회사에 명문대 출신이 3명이고 비명문대 출신이 97명 입사했다고 해서 AI채용 프로그램이 명문대 출신을 차별하지는 않거든요
jjohny=쿠마
21/10/24 00:33
수정 아이콘
일단 제가 윗플에서 말한 [여성과 유색인종을 적게 뽑는 방향으로 누적되어 왔기 때문에]에서 '적게'는 '숫자'를 얘기한 게 아니라 '비율(합격률)'을 얘기한 거고요,

그런 의미에서, 방금 말씀하신 명문대/비명문대 예시는, 의도하신 바와 전혀 다른 결론을 암시하는 예시입니다.

합격자 100명 중 명문대 출신과 비명문대 출신의 비율이 3:97이었다고 합시다.
과연 지원자들 중 명문대 출신과 비명문대 출신의 비율도 3:97이었을까요?

지금까지의 채용시장에서 명문대 출신이 비명문대 출신보다 더 선호되어왔기 때문에,
명문대 출신의 '합격률'은 비명문대 출신의 '합격률'보다 더 높아왔고, AI는 그 비율에 따른 가중치를 학습하게 됩니다.
즉, AI는 명문대 출신을 차별하는 게 아니고 오히려 명문대 출신에게 유리한 가중치를 학습하게 됩니다.

마찬가지입니다. 지금까지의 채용시장에서 남성/백인이 여성/유색인종보다 더 선호되어왔기 때문에,
남성/백인의 '합격률'이 여성/유색인종의 '합격률'보다 더 높아왔고,
따라서 AI는 남성/백인에게 유리한 가중치를 학습하여 결과적으로 여성/유색인종들을 차별하게 된다는 게 지금까지 알려진 분석입니다.

아케이드님께서 본문에 인용하신 다른 기사들에서 언급된 분석 결과도, 지금까지 IT 기술직군의 경향이 남성 위주였기 떄문에 여성에게 불리한 방식의 학습을 했다는 얘기만 있을 뿐, '여성의 입사 후 실적이 저조하기 때문'이라는 분석은 없죠, [여성의 입사 후 실적이 상대적으로 저조하기 때문에 AI가 여성을 차별하는 것일거야]라고 생각하시는 것은 알겠지만, 업계의 일반적인 분석은 아케이드님의 추측과는 다른 것으로 알고 있습니다.
아케이드
21/10/24 01:00
수정 아이콘
기존 채용에서 이미 차별셩이 있었기 때문에 데이터에 이미 그런 성향들이 반영되어 있고 그런 데이터를 입력받은 AI도 차별적이 될수 밖에 없었다고 이해하면 될까요?
jjohny=쿠마
21/10/24 01:04
수정 아이콘
(수정됨) 그런 얘기죠. (정확하지는 않습니다)

그래서, '기존의 채용 절차에서 제공된 데이터에 편향성이 있을 경우, AI의 학습/판단에서 그러한 편향성을 걷어내려면 어떻게 해야 하는가'에 대한 연구들이 있습니다.
21/10/24 00:35
수정 아이콘
기계학습 시킬 때 Labeling 여부에 따른 변수들이 더 많은 가중치를 받게끔 되어 있거든요. 여러 변수 (features)이 들어갔을 테니 그렇게 단순하지 않습니다.
AaronJudge99
21/10/24 14:25
수정 아이콘
기존 데이터 자체가 편향되어 있었다면 그걸 학습한 AI는 당연히 그렇게 될 수밖에 없긴하겠네요
jjohny=쿠마
21/10/24 01:01
수정 아이콘
(수정됨) 덤으로 제가 궁금한 부분이 있는데요,

[지난 10년간의 아마존 입사자들의 이력 데이터와 입사한 후의 실적을 데이터를 입력해 학습을 시켰는데]
라고 하셨는데, 여기서 [입사한 후의 실적]을 학습시켰다는 말씀의 레퍼런스는 어떻게 되나요?

제가 기억하기로(그리고 방금 찾아본 대부분의 레퍼런스들에서 언급하기로는)
[해당 아마존 AI가 학습한 것은 이력서 데이터이고, 입사 후 실적을 함께 학습시켰다는 이야기는 못봤던 것 같은데요]
(저도 본지 1년이 넘어서 정확한 기억은 아닐 수도 있을테고, 그 사이에 제가 못본 레퍼런스가 나왔을 수도 있겠지만)

일단 본문에 인용하신 기사들에서도 실적 데이터 얘기는 안 보이는 것 같고요,
현지 보도에서도 실적 데이터 얘기는 안 보이는 것 같습니다.

예를 들어, 로이터 통신 기사입니다. (아마 이게 가장 많이 인용된 기사 중 하나일 것 같습니다)
"That is because Amazon’s computer models were trained to vet applicants by observing patterns in resumes submitted to the company over a 10-year period. Most came from men, a reflection of male dominance across the tech industry."
https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G

BBC 기사입니다.
https://www.bbc.com/news/technology-45809919
"They told Reuters that the system was intended to review job applications and give candidates a score ranging from one to five stars."

포츈 기사입니다.
https://fortune.com/2018/10/10/amazon-ai-recruitment-bias-women-sexist/
The idea was for this AI-powered system to be able to look at a collection of resumes and name the top candidates. To achieve this, Amazon fed the system a decade’s worth of resumes from people applying for jobs at Amazon.

10년간의 지원서/이력서 데이터를 학습하고, 그 데이터에 기초해서 최적의 합격자를 찾아내고자 했다는 게 상기 기사들의 내용입니다.

'실적' 부분을 상상으로 작성하신 부분이 아니라면 뭐라도 레퍼런스를 보고 작성하신 것일텐데, 공유해주시면 감사하겠습니다.
아케이드
21/10/24 01:14
수정 아이콘
로이터 통신은 10일(현지시간) 아마존이 2014년부터 지원자의 이력서를 검토해 인재를 가려낼 수 있는 기술을 개발했다. 이후 연구자들은 이 시스템을 채용 완료된 직원의 이력서에 적용해 실제 결과와 일치하는지 확인하는 실험을 했다. 그러나 그 결과 이 시스템이 여성 지원자를 차별하는 문제를 안고 있다고 평가했다.
----------------------------------
이 기사입니다.
https://www.edaily.co.kr/news/read?newsId=04477206619371936&mediaCodeNo=257&OutLnkChk=Y
jjohny=쿠마
21/10/24 01:19
수정 아이콘
(수정됨) '실제 결과'를 '실적'이라고 해석하신 건가요? 뭔가 전혀 잘못 이해하신 것 같은데요.

여기서 ['실제 결과'는 '실적'이 아니라 '실제 채용 결과']를 얘기하는 것이고,
방금 인용하신 내용은 [이력서를 바탕으로 AI를 학습]시켜서 채용 시스템을 생성하고, [그 채용 시스템에 실제 채용된 직원들의 이력서를 넣어보니, 그 시스템이 여성 지원자를 과도하게 차별하는 문제를 안고 있다는 게 확인되었다](ex. 정상적으로 채용된 여성 지원자의 이력서조차도 떨어뜨려버렸다)는 내용일 겁니다.

위에도 인용했지만, 애초에 위 기사가 인용한 로이터 보도 자체가 실적 어쩌고 하는 내용이 전혀 아닙니다.
아케이드
21/10/24 01:25
수정 아이콘
제가 아마존 시스템에 대해 왈가왈부할 입장은 아니지만, 쿠마님 말씀대로라면
아마존의 AI채용 툴은 실적이라는 결과를 바탕으로 일잘하는 혹은 그럴 가능성이 큰 인재를 뽑는 학습을 시킨게 아니라
(저는 당연히 이쪽이라고 이해를 했고 그게 당연하다고 의문을 갖지 않았네요)
자신들의 기존 채용방식을 100점으로 보고 그것과 유사한 방식으로 채용을 하는 AI를 만들고 싶었다는 거군요
그렇다면 제가 이해를 잘못한 것도 맞고, 아마존 쯤 되는 회사가 그런 방식의 툴을 만들고자 했다는 것도 이해가 잘되지 않는 부분이 있네요
자신들의 기존 채용방식에 대한 강력한 신뢰가 있었던 모양이군요

이게 맞다면 본문은 수정하겠습니다
jjohny=쿠마
21/10/24 01:31
수정 아이콘
이 부분에 대해서도 여러가지 다양한 논의들이 있었는데, 다시 또 찾아보고 하나하나 풀어서 쓰려면 좀 엄두가 안 나네요
(윗플에서 쓰신 부분도 해당 건을 정확히 이해하신 것 같지는 않은데, 그렇다고 제가 그걸 잘 풀어서 설명할 수 있을지 잘 모르겠네요)

본문 수정은 좀 하셔야 할 것 같습니다.
'실적 데이터'에 관한 얘기가 본문 주장에서 핵심적인 부분을 차지하고
지금까지 위에서 작성된 댓글들이 거의 다 그 전제 하에서 작성되었는데,

그 대목이 기사 오독에서 나온 거라고 생각하면 좀 헛헛해지네요.
아케이드
21/10/24 01:39
수정 아이콘
본문은 수정했습니다. 말씀대로 실적이라는 말에서 비롯된 댓글들에게 죄송스러운 마음은 있네요.
다만, 제가 속해있는 회사도 그렇고 실적 데이터를 바탕으로 한 학습을 한 채용AI도 성차별적인 성향은 있는 걸로 알고 있습니다.
그걸 어떻게 보완해야 할지에 대한 논의도 활발하고 말이죠.
jjohny=쿠마
21/10/24 01:41
수정 아이콘
(수정됨) 네 그런 케이스도 있는 것으로 알고는 있는데요,
'실적을 안 봐도 성차별이 발생하고 실적을 봐도 성차별이 발생한다'면, [성차별은 실적과 무관하게 발생한다고도 해석할 수도 있겠죠.]
다르게 얘기해서, '실적 데이터를 함께 학습한 AI에서 발생하는 성차별이, 정말 실적 때문에 발생한 것이 맞기는 한가?'라는 물음표가 발생하는 것입니다.

즉, 데이터셋 자체가 가진 편향성을 어떻게 극복할 것인가 하는 게 이 논의의 핵심입니다.
(그게 제가 처음에 쓴 댓글의 내용이고요)
아케이드
21/10/24 01:47
수정 아이콘
말씀하신 대로겠네요.
21/10/24 04:55
수정 아이콘
지금까지 아마존 인사 시스템에서 여성이 채용에 불이익을 겪고 있었고, AI가 과거 채용 방식을 학습하다 보니 여성이 채용에 계속 불이익을 받는 방향으로 분류를 진행하고 있었다는 건가보네요.
무섭군요.
아케이드
21/10/24 09:56
수정 아이콘
인사 시스템을 개선하겠다는 생각으로 AI를 채용하고자 한게 아니라, 기존 방식을 답습하는 것을 베이스로 깔고 있었다는 그 사고 방식 자체도 무섭네요
일반상대성이론
21/10/24 05:56
수정 아이콘
이런거보면 지치지 않는다는 점 말고 지금 방식의 ai가 사람이랑 다른 강점이 생길 수 있나 싶긴 하네요. 물론 그게 매우 큰 장점이긴 하지만
아케이드
21/10/24 09:55
수정 아이콘
아마존답게(!) 채용 담당자들마저 해고하고 그만큼의 급여를 아끼겠다는 생각일 수도 있겠죠
공실이
21/10/24 08:53
수정 아이콘
AI업계 종사자입니다. 데이터에 바이어스에서 오는 AI 편견적인 결과를 수정하기가 정말 어렵습니다. 아마존이라고 무슨 신비의 방법으로 신적인 판단을 하는게 아닙니다. 누적데이터에 편견이 들어있었으면 대부분 그대로 반영한 결과를 내놓게 됩니다.
운운이
21/10/24 14:02
수정 아이콘
이게 맞죠.
이 기사를 보고 [여성은 원래 열등하고 AI가 그걸 객관적으로 판단했다] 라고 생각이 들었다면 전혀 근거가 없으니 그 생각을 고치길 바랍니다.
AaronJudge99
21/10/24 14:27
수정 아이콘
하긴 데이터를 기반으로 판단하는 거일텐데...데이터 자체에 문제가 있으면 당연히 결과도 영 이상하게 나올 수밖에요...
김재규열사
21/10/24 12:08
수정 아이콘
인공지능도 인간의 산물인데 그동안 아마존의 채용제도가 여성에 불리했기에 인공지능도 같은 결론을 낸거 아닐까요?
사실 성차별을 고치는게 어렵지 않습니다. 아마존이 앞장서서 무조건 남녀 동수로 뽑으면 됩니다. 그러면 인공지능이 알아서 여자 n등 남자 n등 까지 뽑겠죠. 그렇게 하면 끝날 문제를 왜 인공지능을 탓할까요.
21/10/24 13:01
수정 아이콘
합창단 뽑는게 아니에요. 능력있는 사람을 뽑고싶은거고, 이공계 베이스면 내츄럴본 남초일수밖에 없는데, 그렇게 하는게 오히려 차별입니다. AI가 저런 결론을 낸건 논란거리인거고, 말씀하시는건 논란까지도 안가는 직접적인 성차별이죠.
AaronJudge99
21/10/24 14:26
수정 아이콘
맞죠...공대생들이 맨날 [우리 과엔 왜 이렇게 여자학생이 없냐 ㅠㅠ] 할 정도로 애초에 업계 자체가 남자가 상당히 많은데...거기서 여자 상위 50명 남자 상위 50명 이런 식으로 짜르면 너무 불합리해요
김재규열사
21/10/24 22:26
수정 아이콘
저도 합창단 뽑는게 아니라는 말씀에 동의합니다. 능력이 되는 사람을 뽑아야 되는데 결과적으로 남성이 더 많이 뽑힌게 성차별이라고 인공지능을 폐기한게 이해가 안되는거죠. 애초에 남녀비율을 맞출 생각이라면 남자 n명 여자 n명을 하면 될걸 왜 인공지능에게 맡기는지 이해가 안된다는 거죠.
티오 플라토
21/10/24 12:36
수정 아이콘
과거의 데이터를 가지고 학습하는 ai는 모두 같은 문제를 안을 수 밖에 없죠. "배운 대로 행할 수 밖에 없"으니..
반대로 배우지 않은 판단 기준을 가지고 판단하면 오히려 그게 더 문제가 되겠죠. 합격 탈락 결과를 납득하기 힘들 테니..
아케이드
21/10/24 12:41
수정 아이콘
말씀대로 일테고 그래서 참 어려운 문제인 듯 합니다
서류조당
21/10/24 15:08
수정 아이콘
애초에 AI 자체가 대단한 통찰력을 가지고 있다거나 하는 게 아니죠. 그냥 과거의 데이터를 기반으로 사람이 입력한 가중치에 따라 결과를 산출할 뿐.
탐사정의위엄
21/10/24 15:55
수정 아이콘
데이터 분포 편향 문제가 최근까지도 머신러닝 쪽에서 핫한 주제고 제 아무리 아마존이라고 할지라도 엄청난 해결책을 가지고 있는 상황은 아닙니다. 지금도 연구자들이 모여서 열심히 연구중인 분야죠.
이선화
21/10/24 21:52
수정 아이콘
그 왜 트위터에서 말을 배우는 AI 같은 것도 같은 이유로 중지되지 않았나요. 인종차별주의자 / 성차별주의자가 되었다고.

학습 자료 자체가 차별적이라면 당연히 결과물도 차별적일 수밖에 없겠죠. 그 차별을 걷어내는 것도 쉽지 않겠죠. 무엇이 차별인지 기준을 누가 정할 수 있을지. 또 다른 AI에게 맡긴다면 순환논법으로 귀결되고. 누군가가 한다면 그 사람의 바이어스가 그대로 반영될테니...
목록 삭게로! 맨위로
번호 제목 이름 날짜 조회 추천
100879 어쩌다보니 쓰는 집 문제 -조합은 왜그래? [40] 네?!5634 24/02/09 5634 5
100878 2022년 경증질환 건보부담금은 11.8조원 [21] VictoryFood5541 24/02/09 5541 0
100877 의사 증원은 악수는 아니나 편법에 속한다 [31] Gottfried6448 24/02/09 6448 0
100876 최근에 읽은 책 정리(만화편)(1) [20] Kaestro4651 24/02/09 4651 6
100875 제66회 그래미 어워드 수상자 [2] 김치찌개4181 24/02/09 4181 1
100874 임종석은 견제하고 조국에는 입을 닫은 민주당 지도부 [154] 홍철10430 24/02/09 10430 0
100873 진료기록부 발급 대해 면허 반납을 들고 나온 수의사업계 [42] 맥스훼인8248 24/02/08 8248 11
100872 열매의 구조 - 겉열매껍질, 가운데열매껍질, 안쪽열매껍질 (그리고 복숭아 씨앗은 일반쓰레기인 이유) [21] 계층방정3842 24/02/08 3842 13
100871 향린이를 위한 향수 기초 가이드 [74] 잉차잉차7445 24/02/08 7445 30
100870 누가 금연을 방해하는가? [42] 지그제프6093 24/02/08 6093 4
100869 회사에서 설사를 지렸습니다 [145] 앗흥10420 24/02/08 10420 202
100868 전 평범한 의사입니다. [43] Grundia10229 24/02/08 10229 73
100867 대통령님께서 여사님 디올백 사건은 정치 공작이 맞다고 하십니다. [134] youcu15148 24/02/07 15148 0
100866 의대 증원 그 이후 [37] lexial6358 24/02/07 6358 0
100865 레드벨벳의 '칠 킬' 커버 댄스를 촬영해 보았습니다. :) [10] 메존일각3057 24/02/07 3057 4
100864 집에 SBS 세상에 이런일이 팀 촬영 온 썰+잡다한 근황 [19] SAS Tony Parker 8136 24/02/07 8136 11
100863 의사 인력 확대 방안 [87] 경계인11745 24/02/07 11745 1
100862 의대 증원에 관한 생각입니다. [326] 푸끆이17312 24/02/06 17312 0
100861 원자단위까지 접근했다는 반도체 발전방향 [54] 어강됴리9799 24/02/06 9799 4
100860 [역사] 물질은 무엇으로 이루어져 있을까? / 화학의 역사① [26] Fig.13980 24/02/06 3980 12
100859 내년도 의대 입학정원 2천명 늘린다 [499] 시린비22234 24/02/06 22234 0
100858 김관진·김기춘·최재원·구본상... 정부, 설 특별사면 [54] 시린비8693 24/02/06 8693 0
100857 찰스 3세 국왕, 암 발견으로 공식 일정 중단 [57] 닭강정10535 24/02/06 10535 0
목록 이전 다음
댓글

+ : 최근 1시간내에 달린 댓글
+ : 최근 2시간내에 달린 댓글
맨 위로