인공지능(AI)을 활용하면 기업들의 채용 절차가 더욱 공정해질까? AI가 질문하고 지원자가 화상과 카메라를 바라보면서 답변하는 ‘AI 면접’을 도입한 기업들이 나타나면서 일각에서는 채용을 둘러싼 시비가 줄어들 것이라는 전망도 나온다. AI가 일관된 기준으로 서류를 가려내고 면접을 진행한다면 최소한 인사 담당자의 주관이나 인간관계로부터 빚어지는 오류와 부정은 사라질 것이라는 이야기다. 여기에는 AI는 부당한 차별을 저지르지 않을 것이라는 기대가 깔려 있다.
전문가의 의견은 어떨까? 고학수 서울대 법학전문대학원 교수는 최근 펴낸 개론서 ‘AI는 차별을 인간에게서 배운다’에서 의문을 해결할 실마리를 제시한다. 새로운 기술이 사회와 경제, 제도에 미치는 영향을 연구해온 고 교수는 저서에서 사회가 AI에 요구하는 윤리성이 무엇인지, 그것을 어떻게 실현할 수 있는지 설명한다. 이에 따르면 현재로서는 AI를 활용하는 것만으로 채용이 더 공정해지거나 부당한 차별이 사라질 것이라는 보장은 없다. 기술적 한계도 존재하지만 AI가 판단을 내리기 위해서 학습하는 데이터(원시 자료)에 무엇을 포함시키거나 제거해야 하는지에 대한 사회적 합의가 아직 만들어지지 않았기 때문이다. 데이터를 잘못 구성하면 판단도 틀릴 수밖에 없다.
부적절한 데이터가 무엇인지부터 논의해야
고 교수는 4일 한국일보와의 통화에서 AI가 부당한 결정을 내리도록 만드는 부적절한 데이터를 개발 과정에서 배제하기가 어려운 이유에 대해서 “문제가 생길 가능성은 산탄총을 쐈을 때처럼 여러 군데서 나타난다”고 설명했다. 그는 “개발자 입장에서는 의식적으로 여성이나 장애인, 특정 대상을 차별한다고 생각하지 않지만 남성 위주의 사회에서, 문제의식 없이 (개발한 결과로) 결과적으로 불편한 상황이 나타날 수 있다”고 부연했다.
이러한 문제는 해외에서 먼저 확인됐다. 실제로 아마존은 이력서를 평가하는 알고리즘을 개발하다가 중단했는데 그 이유 가운데 하나로 AI의 학습에 활용한 데이터가 꼽혔다. 문제의 알고리즘은 이력서에 여학교 이름이나 여성 전용 동아리 이름이 있으면 부정적으로 평가했다. 기존 지원자들의 이력서를 바탕으로 데이터를 구축했는데 여기에 여성 지원자가 적었기 때문이다. 애초에 정보통신기술(IT) 직군 종사자 가운데 여성 비율이 낮은 것도 문제였다. 이러한 AI는 능력이 뛰어난 여성도 부정적으로 평가할 가능성이 있다.
개발자들 "넣으면 안 되는 게 뭐냐"…미국 대기업은 소수자 채용해 보완
AI에 대규모 자료를 학습시키고 알고리즘으로 결과를 산출하는 상황에서 AI가 학습할 데이터가 많을수록 효율성이 높아진다. 채용 분야에서도 마찬가지다. 그러나 성별, 학력, 출신지, 가구 소득처럼 사회적 논란을 일으킬 가능성이 있는 데이터들을 어떻게 다뤄야 할지에 대해서는 아직 사회적 공감대가 만들어지지 않았다. 특히 학습용 데이터에 어떤 특징이 있는지 표시하는 ‘레이블링(labeling)’에 사람이 참여하는 경우, 결과를 두고 ‘무슨 의도였냐?’는 논란이 벌어질 가능성이 있다.
고 교수는 “블라인드 면접처럼 (AI 면접에서도) 사회적 합의가 필요하다”면서 “AI에서는 이론적으로 데이터 파라미터(변수)가 수십만 개까지 늘어날 수 있는데 현업에서 질문하는 것이 ‘그중에 여기 넣으면 안 되는 게 뭐냐’인 상황”이라고 덧붙였다. AI 학습에 소수자를 참여시키야 한다는 주장에 대해서는 “미국의 큰 회사들은 의식적으로 여성이나 장애인, 상대적으로 소수자인 사람들을 채용하고 있다”고 밝혔다.
"얼굴 보고 적성·적합성 판단하는 기술 과학적 규명 안 돼"
국내에서도 AI 면접의 원리와 결과를 신뢰할 수 있는지 의견이 분분한 상황이다. 기업들에 채용을 위한 AI 서비스를 제공하는 업체들 가운데는 면접자의 음성과 얼굴을 분석해 지원자의 호감도부터 감정전달 능력, 의사소통 능력 등을 판단한다고 선전하는 경우도 있다. 이것 역시 면접관들이 평가한 데이터가 바탕이 된다. 고 교수는 AI 면접에 관해서 “경우에 따라 (면접자의) 얼굴을 통해서 적성을 어느 정도 알 수 있다는 업체도 있다”면서 “그런데 지금까지 밝혀진 기술로는 얼굴을 보고 적합성이나 일의 맥락에서의 성향을 판단하는 기술이 과학적으로 규명된 게 없다”고 설명했다.
또 이처럼 기존의 데이터를 바탕으로 결과를 산출하는 AI 모형은 태생적으로 오류를 범할 수 있다. 예컨대 기업이 독자적으로 AI를 만들면서 직원들을 대상으로 데이터를 구성한다면 ‘회사에 취업해서 손해가 된 사람’의 데이터는 확보할 수 있다. 반면 ‘회사에 취업했다면 도움이 됐을 사람’의 데이터는 포함시킬 수 없다. 고 교수는 “AI 분야에서는 이를 두고 그라운드 트루스(ground truth), 실제 진실이라는 표현을 쓴다. 오류율을 계산하려는 전제는 ‘우리가 정답을 알고 있다’는 것”이라면서 “거꾸로 정답이 없는 경우, 많은 사회적인 의사결정에서는 오류율과 실제 상황을 파악하기가 어렵다”고 덧붙였다.
현재로서는 복잡하지 않은 의사결정 자동화에 효과적
다만 고 교수는 기업이 AI를 제대로 사용한다면 노동력을 아끼면서 수많은 서류와 면접자를 평가할 수 있다고 했다. 고 교수는 “이력서를 잠깐 살펴봐도 회사와 전혀 맞지 않는 사람을 걸러내는 작업은 AI를 사용하지 않아도 가능하지만 AI는 사람보다 더 쉽게 할 수 있는 것”이라면서 “그렇다면 기업 입장에서는 AI로 걸러내고 남은 후보들을 평가할 시간을 더 쓸 수 있다”고 설명했다. 고 교수는 “AI는 복잡하지 않은 의사결정을 자동화해서 작업을 쉽게 만들어준다”고 덧붙였다.
해외에서는 공정성 지표 만드는 작업 본격화
AI를 활용하는 분야가 늘어날수록 공정성과 관련한 논란은 커질 수밖에 없다. AI와 데이터, 결과값을 비교해 정량적으로 공정성을 측정하는 지표의 개발도 필요하다. 고 교수는 “해외에서도 합의된 기준은 없지만 한국보다 앞서가는 부분은 있다”면서 “공정성이라는 복잡한 개념을 다루는 관례와 체계를 잡는 부분”이라고 설명했다. 이어서 “어떤 맥락에서 어떤 개념을 사용하면 골치가 아플지 관례를 잡아가는 것”이라며 “공정성이라는 개념 자체는 복합적이고 추상적이지만 개발자한테는 결국 수치로 측정할 수 있는 지표를 제시해야 한다. 외국에서는 지표를 만드는 작업이 본격화돼 있다”고 설명했다.
고 교수는 저서에서 독자들이 극단적인 주장에 귀를 기울이는 상황을 경계한다. AI가 사회를 천국이나 지옥으로 만들 것이라는 주장은 기술과 사회적 논의를 몰라서 나왔다는 이야기다. 고 교수는 “개인적 차원에서도, 국가적 차원에서도 AI에 대해서 리터러시(읽고 쓸 줄 아는 능력)를 높여야 한다. 그렇지 않으면 양 극단으로 간다. 이해도를 높이면 근거 없는 불안감은 사라진다”고 강조했다.
기사 URL이 복사되었습니다.
댓글0