[AI시대의 윤리학: ①권력자 AI]
AI 면접, 편향과 차별을 넘어서려면
편집자주
인공지능(AI) 발전 속도가 무섭도록 빠릅니다. 몇 년 전 바둑에 통달하더니, 이젠 철학 에세이를 쓰고, 변호사 시험에 척 붙습니다. AI 전문가들조차 속도를 부담스럽게 여길 지경이죠. 그러나 이렇게 눈부시게 발전하는 AI를 ‘어떻게 쓸지’를 두고 아직 사회적 합의와 공감대가 형성되지 않았습니다. 인간의 목숨과 운명이 걸린 일에 AI를 활용할 수 있을까요? 이는 기술적 문제라기보단 인문학(윤리학)이 풀어야 할 질문입니다. AI 전성시대에 인간이 마주한 딜레마, 그 해결의 실마리를 함께 고민해 봅니다.
지난해 대기업에 입사한 김모(28)씨는 탈락했던 '그 면접'에 아직도 못내 아쉬움이 남아 있다고 했다. 사실 김씨가 1순위로 찍었던 곳은 국내의 한 항공·우주 기업이었는데, 그는 이 회사가 온라인으로 진행한 '인공지능(AI) 면접'에서 두 차례 고배를 마셨다. 학부(기계공학) 학점 4점대에 석사학위를 받고 항공 분야에서 여러 스펙을 쌓아 왔음에도, 면접관 얼굴 한 번 못 보고 '알고리즘'으로 걸러졌다는 사실을 쉽게 받아들이기 어려웠단다. 김씨는 "필기나 인·적성 검사도 아니고, AI가 카메라로 평가한 정보만으로 판단했다는 사실을 납득할 수 없었다"며 "AI가 어떤 데이터를 기반으로 학습을 한 건지, 어떤 기준으로 평가한 건지 불투명하기만 하다"고 불평했다.
AI 면접 문턱을 넘지 못해 1순위 회사를 포기한 김씨 사례에서 보듯, 회사에서 인공지능(AI)은 더이상 사람의 판단을 보조하거나 작업을 도와주는 수준에만 머물러 있지 않다. AI는 입사 시험이나 인사 평가에까지 실질적 권한을 행사하며 타인의 운명을 가를 수 있는 '권력자'로 떠오르는 중이다.
특히 면접의 '공정성'을 확보하려는 공공부문 쪽에서 AI 면접을 빠르게 받아들이고 있다. 진보네트워크센터 조사에 따르면, 2018~2022년 채용 절차에 AI 면접을 활용한 공공기관은 40여 곳에 달한다. 2017년 강원랜드 채용 비리 사건이 터지면서, 공공기관들이 공정성을 내세워 앞다투어 AI 면접을 받아들이고 채용 절차를 '외주화'한 결과다.
앞으로는 채용을 넘어 기존 직원 인사관리에도 AI가 활용될 가능성이 높다. 국내에선 인사관리에 AI를 본격 도입한 곳은 없지만, 외국에선 인사고과 평가나 해고자 선정 등 인사의 핵심 영역에서 AI가 쓰인다. 미국 실리콘밸리에서는 직원의 퇴사 여부를 예측하는 AI 프로그램이 팔리고 있으며, 이직 가능성이 높아 보이는 직원을 AI로 추출해 별도 면담을 진행하는 회사도 있다.
AI 면접관은 어떻게 탄생했나
"AI가 베테랑 사람 면접관의 평가 방식을 배우도록 하는 게 AI 면접 기술의 핵심이죠."
(이영복 제네시스랩 대표)
그렇다면 AI는 어떤 식으로 취업준비생의 역량을 평가해 당락에 영향을 미치는 걸까. 간단히 말하면 사람 면접관의 판단을 보고 배우는 식으로 '면접 경험'을 쌓는다. 100여 곳의 고객회사를 보유한 AI 면접 개발·운영사 제네시스랩은 "경력이 많은 사람 면접관이 지원자의 얼굴과 음성이 담긴 영상을 보고 세부 항목별로 평가하는 작업으로부터 시작한다"고 설명한다. 그다음엔 AI 엔진이 여러 사람 면접관의 평가를 딥러닝(컴퓨터가 스스로 학습)하는 작업이 이어진다.
AI 면접 업체들은 사람이 관여하지 않는 면접의 장점을 내세운다. ①사람 면접관과 달리 AI는 주관적 판단 개입 가능성과 채용 비리의 개연성으로부터 자유롭고 ②학벌 등 스펙 위주의 평가를 피할 수 있으며 ③채용 절차에 드는 비용과 시간을 절약할 수 있다는 설명이다.
그런데 만약, AI가 편향적이라면...
"사람 면접관도 편향적일 순 있죠. 그렇지만 사람은 최소한의 자기검열은 할 수 있다는 게 다른 부분이죠."
(민변 디지털정보위원장 김하나 변호사)
AI 기술 수준이 눈부시게 발전하고 있지만, 여전히 'AI가 사람의 운명을 좌우할 수 있다'는 명제엔 거부감이 크다. AI를 가르치는 주체 역시나 사람이기 때문인데, AI가 한쪽에 치우친 데이터를 학습하면 면접에서 편향된 판단을 내릴 위험성이 있다. 미국 전자상거래기업 아마존은 2018년 AI 채용 프로그램을 개발했는데, 이 프로그램이 성차별을 학습한 사실이 드러나기도 했다. 아마존 AI는 10년간 축적된 지원자들의 이력서를 학습해, 구직자들에게 1~5점 사이의 별점을 매겼다. AI는 남성 점유율이 훨씬 높았던 과거 데이터의 편향성을 그대로 배웠다. '여성 체스클럽 주장' 같은 경력을 이력서에 쓴 지원자에게 불이익을 줬고, 여대 졸업자 2명을 채용 대상 목록에서 제외하기도 했다.
사람의 판단을 그대로 학습하는 AI는 인간 세상에 오랜 기간 누적된 성별·인종·장애·나이·학력과 관련한 차별적 시선까지도 답습할 수 있다. 영국 정부는 AI를 이용해 비자 신청을 신속하게 처리하는 시스템을 도입했는데, 그 결과 AI는 백인의 비자 신청은 잘 받아들인 반면 유색인종의 신청은 높은 비율로 거부한 것으로 나타났다. 또 코로나 탓에 학교에서 대면 시험을 치르지 못한 상황에서, 영국 정부는 AI 알고리즘을 이용해 고교생 학점을 산정했다. 그랬더니 AI는 가정 형편이 상대적으로 좋지 못한 학생들이 많은 공립학교 쪽에 불리한 점수를 줘 버렸다.
당락의 이유를 설명할 수 있는가
"우린 폭발물 탐지견이 어떻게 자기 일을 수행하는지 이해하지 못합니다. 그러나 탐지견이 내리는 결정은 전적으로 신뢰하고 있죠."
(머신러닝 전문가 찰스 엘칸의 비유)
AI의 특징 중 하나는 '왜 AI가 그런 결정에 이르게 되었는지'를 설명하기 매우 어렵다는 점이다. 입력된 데이터를 AI 스스로 학습(머신러닝)했기에 인간이 결과의 근거를 파악할 수 없다는 것이다. 의사 결정 과정이 밖으로 드러나지 않아 '블랙박스'라는 특징으로도 불린다. 프로 바둑기사들을 꺾은 알파고가 이상한 수를 뒀을 때, 왜 거기에 뒀는지 알지 못하지만 나중에 알고 보면 그 수가 가장 좋은 수였다는 게 밝혀지는 것과 같다.
'설명이 어렵다'는 특징은 면접·입시·인사관리와 같이 극도의 공정성과 이의신청 가능성을 염두에 둬야 하는 영역과 다소 배치되는 측면이 있다. 그래서 사람을 다루는 영역에 AI 시스템을 도입할 때 해결해야 할 문제가 바로 '설명 가능성'이다. 입사 지원자가 AI 면접의 공정성을 문제 삼아 판단 경위를 설명해 달라고 요청하거나, AI 인사고과에서 낮은 점수를 받은 직원이 점수 근거를 요구하는 경우, 기업이 이를 명쾌하게 설명할 수 있어야 한다는 얘기다. "그냥 AI가 그렇게 판단했어요"라는 식의 변명은 통할 리 없다.
미국에서는 "결과에 대한 설명이 충분하지 않은 AI 기술은 쓸 수 없다"는 취지의 판례가 이미 나와 있다. 휴스턴 지역 교사들은 2014년 교육 부가가치 평가 시스템(EVAAS)을 이용해 교사들을 해고한 교육당국을 상대로 소송을 제기했다. EVAAS는 학생의 과거 성과를 바탕으로 올해 학업 성적을 예측하는 알고리즘으로, 학교 측은 EVAAS를 써서 교사에게 보너스를 지급하거나 고용 계약 여부를 판단했다. 이 사건에서 휴스턴 연방지법은 "EVAAS로 도출된 점수를 교사들이 정확하게 계산할 수 있는 방법이 없고, 그로 인해 (교사들의) 이익이 부당하게 박탈당할 수 있다"며 교사들 손을 들어줬다.
전문가들은 AI 기술이 인력 채용처럼 사람의 운명을 좌우할 중대 결정에 사용되는 경우 결과에 대한 충분한 설명이 가능해야 한다고 지적한다. 장여경 정보인권연구소 상임이사는 "일부 공개가 어려운 알고리즘이 있다 하더라도, 어떤 데이터를 학습했는지, 가중치는 어떻게 변경됐는지, 출시 전 테스트는 어떻게 했는지 등을 기록하도록 의무를 부과할 필요가 있다"면서 "특히 향후 위법성 소지가 있을 때 규제기관에서 이런 기록에 접근할 수 있어야 한다"고 설명했다.
AI 면접을 거부할 실질적 권리가 있는가
"AI를 활용한 채용 면접이나 복지 수혜자격 결정 등의 경우, 거부하거나 설명을 요구할 권리를 신설했습니다."
(고학수 개인정보보호위원장의 개인정보보호법 개정 취지 설명)
구직자가 AI 면접을 거부할 권리를 제도적으로 보장해 주는 방안도 필요하다. '을'의 위치인 구직자가 기업의 AI 면접 절차를 거부하는 것이 실제로는 어렵기 때문이다. 국내에서도 AI 기술을 활용한 '완전 자동화 시스템'에 따른 결정에 거부권을 행사할 수 있는 조항을 신설한 개인정보보호법 개정안이 9월부터 시행된다. 그러나 현실적으로 AI 면접에 동의하느냐 마느냐가 '조직 적응력 평가'의 요소가 될 수 있다는 점에서 실효성이 떨어진다는 지적도 나온다.
AI 면접 동의 절차가 기업 책임을 회피하는 수단으로 악용될 수 있다는 문제 제기도 있다. 박도현 광주과학기술원(GIST) 법정책연구실 교수는 "얼굴, 음성 정보 등 AI 면접을 위한 개인정보 수집은 대상자 동의를 받느냐가 중요한 원칙"이라며 "동의만 받으면 개인정보를 아무렇게나 써도 되는 면책 수단으로 악용될 수 있다"고 말했다. 박 교수는 "동의를 하지 않으면 사실상 해당 서비스나 프로그램을 이용할 수 없기 때문"이라고 강조했다.
구직자 권리를 보호하고, AI 채용 기술을 투명하게 사용하기 위한 법적 보호 장치가 마련될 필요도 있다. 미국 뉴욕시는 이달부터 시행되는 조례에 구직자 또는 승진 대상자를 선별하기 위해 자동화된 도구를 사용하는 고용주는 △지원자나 직원으로부터 자동화 도구 사용에 대해 사전 동의를 받고 △대안 절차를 요청할 수 있도록 해야 하며 △자동화 도구를 활용하기 전에 1년 이내 독립된 감사인으로부터 '편향성 감사'를 받아야 함을 명시했다. 장여경 상임이사는 "채용 분야에 AI 기술이 광범위하게 도입된 이유는 입사지원자들이 사실상 권리 주장을 하기 어려운 절박한 입장에 놓인 경우가 많기 때문"이라며 "노동시장에 AI 기술이 활용될 때는 정보주체를 보호하기 위한 별도 입법이 필요하다"고 강조했다.
▶'김치~' 미소론 어림 없어... AI 면접관은 조커의 웃음을 원한다
https://www.hankookilbo.com/News/Read/A2023041410060000321
▶"혈연·지연·학연 없는 AI 면접관, 사람보다 공정할 수 있죠"
https://www.hankookilbo.com/News/Read/A2023041213110005027
▶"아직 설익은 AI, 약자인 취준생을 베타테스트 하고 있다"
https://www.hankookilbo.com/News/Read/A2023041214200000795
▶피고인 척 보면 미래 범죄 예측... AI가 판사되면 세상은 나아질까?
https://www.hankookilbo.com/News/Read/A2023041305390003045
글 싣는 순서
①운명을 좌우하는 ‘권력자 AI’
②인생을 지배하는 ‘절대자 AI’
③인간과 공존하는 ‘동반자 AI’
기사 URL이 복사되었습니다.
댓글0