편집자주
<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다. 한국일보>
2013년 2월 미국 중북부 위스콘신주 라크로스에서 주택을 향한 총격 사건이 있었다. 경찰은 얼마 뒤 차를 타고 총을 쏜 2명의 혐의자를 체포했는데 이 중 한 명이 1심 재판에서 6년형을 선고받는다. 이 판결에는 당시 미국 여러 주에서 도입한 '범죄 예측 프로그램'이 사용됐다. '콤파스(COMPAS)'라는 이 프로그램은 전과는 물론 교육 수준, 거주 지역, 생활 신조 등 피고에 대한 137가지 정보를 종합해 재범 위험을 10단계로 예측하는 일종의 인공지능(AI) 평가 시스템이다.
□그러나 피고인 평가 방법, 즉 알고리즘이 공개되지 않은 프로그램을 재판에 이용하는 것은 적절한 법적 절차를 받을 권리 침해라며 항소를 제기했다. 실제로 이 프로그램이 적용됐지만 2년간 재범이 없었던 사람 중 재범 위험도가 높다고 평가된 경우가 백인은 23.5%, 흑인은 44.9%라는 보도도 있었다. 반대로 다시 범죄를 저질렀지만 애초 위험이 낮다고 평가된 사람이 백인은 47.7%, 흑인은 28.0%였다. 인종 편향을 의심할 만하다.
□AI가 잘못 판단하는 이유로 몇 가지가 거론된다. 우선 딥러닝의 기초가 되는 데이터가 충분하지 않은 경우다. 개와 고양이 사진만 제공받아 이를 구별하도록 학습한 AI에게 조류 사진을 보여 줄 때 올바른 답을 기대하기 어렵다. 얼굴 인식의 정확도가 인종에 따라 다른 것도 수집 자료의 차이와 무관하지 않다. 알고리즘 편향도 문제가 된다. 남성 우대로 논란이 된 아마존 채용 시스템이나 애플의 신용카드 대출심사 편향이 이런 경우다.
□인간 사회의 편향을 AI가 재연하는 경우는 심각하다. 출시 한 달도 안 돼 폐기 결정된 '이루다'처럼 챗봇에서 이런 문제가 반복된다. 그러나 '이루다'가 폐기되더라도 이것이 AI에 대한 사망선고일 리 없다. AI는 이미 논리적으로 인간의 모든 결함을 넘어서는 '초월자'가 되기로 예정된 존재다. 반가우면서 두려운 이유다. AI 개발 과정에서 윤리 준수나 학습 데이터 기록 등 문제를 고치려는 노력을 의무화하지 않으면 AI 디스토피아 우려는 더 커질 수 있다.
기사 URL이 복사되었습니다.
댓글0