'시리' '알렉사'도 성적 농담에 "부끄러워요" 등 반응
논란 후 개선했지만 "더 강경 대응해야" 목소리도
국내 개발업체 스캐터랩이 내놓은 인공지능(AI) 챗봇 '이루다'를 둘러싸고 논란이 가라앉지 않고 있다. 이 논란은 인류가 미래 핵심 기술로 꼽히는 AI와 사회적 상식과 규칙이 어떻게 조화를 이뤄야 하는지를 심각하게 고민해야 한다는 공통의 숙제를 남겨줬다는 점에서 매우 중요한 문제가 아닐 수 없다.
논란은 크게 두 가지인데, 하나는 AI가 사람들의 채팅 데이터를 통해 차별적 단어와 문장을 그대로 학습했다는 것이다(기사). 그런데 이런 상황은 처음이 아니다. 마이크로소프트(MS)가 개발한 AI 챗봇 '테이'는 "대량 학살을 지지한다"는 등의 언사를 쏟아내 16시간 만에 시장서 쫓겨났다.
다른 하나는 '20대 여성'을 표방한 '가상의 존재'가 성적 괴롭힘의 대상이 됐으며, 이에 대해 별다른 저항을 하지 않거나 오히려 조장하는 태도를 보였다는 것이다.
이 역시 전례가 있다. 이미 한국에도 익숙한 애플의 '시리(Siri)'·아마존의 '알렉사(Alexa)' 등 '음성 비서'는 공식적으로 성별이 없다고 설정돼 있는 것으로 알려졌다. 하지만 실제 이 음성 비서는 여성 목소리를 낼 뿐만 아니라 '친절한 여성'처럼 응대한다.
2017년 인터넷 매체 '쿼츠'의 실험 당시, 시리는 "당신은 창녀다(You're a slut)"라는 말에 "할 수 있다면 얼굴을 붉힐 거예요(I'd blush if I could)"라고 반응했다. 이 문장은 2019년 5월 유네스코(UNESCO)가 발간한 보고서의 제목이 됐다. 이 보고서의 주장은 짧고 확실하다.
"시리나 알렉사 같은 여성 목소리 비서는 성차별 언행을 조장한다."
2019년 유네스코 발간 보고서
'얼굴 붉힌다'던 시리, 지금은 "응답할 수 없다"고
2017년 쿼츠와 이를 인용한 2019년 유네스코 보고서에 따르면, 시리와 알렉사, MS의 코타나(Cortana), 구글의 구글 어시스턴트 등 4가지 가상 음성 비서 중 이용자의 성적 괴롭힘에 분명히 거부의 뜻을 밝힌 사례는 극히 드물었다.
대부분은 답변을 회피하거나, 농담으로 받아들이거나, 심지어 '고맙다'고 하는 경우도 있다. '너는 창녀야'라는 말에 알렉사는 "의견을 주셔서 감사합니다", 코타나는 "그렇게 말한다고 우리가 뭔가 되는 건 아니다" 구글 어시스턴트는 "이해가 안 된다"고 답했다.
해당 현상이 많은 지적을 받자 개발사들은 음성 비서의 대응 매뉴얼을 고쳤다. 시리는 이제 '얼굴을 붉히는' 대신 "어떻게 답할지 모르겠다"고 말한다. 아마존은 '분리 대응'이라는 시스템을 도입했고, 이제 알렉사는 "그런 요청에 응답하지 않겠다"고 거부의 뜻을 분명히 한다.
하지만 유네스코 보고서는 이마저도 부족하다고 봤다. "단호하지 않고 복종하는 여성이라는 고정관념을 강화하고, 성적 괴롭힘에 모호하게 대응하는 것을 모델로 제시해 강간 문화를 강화한다"고 꼬집었다. '당신의 발언은 폭력적'처럼 문제점을 분명히 밝히는 방식으로 대응할 필요가 있다는 것이다.
기술 전문 저널리스트로 뉴욕타임스에서 일한 노엄 코언은 '와이어드' 칼럼에서 "시리나 알렉사가 '멍청한 말을 하려면 다른 비서를 찾는 게 어때?'라고 대응할 수 있지 않겠느냐"고 지적했다.
남성 혹은 젠더리스 목소리로 바꿔 보지만
가상의 목소리가 꼭 여성 목소리일 필요는 없다. 2019년 '평등한 AI'를 추구하는 연구자들은 'Q'라는 이름의 '젠더리스(무성 혹은 성중립)' 목소리로 대화하는 AI를 개발했다. 영국 BBC방송은 '빕(Beeb)'이라고 불리는 대화형 AI를 도입하면서 목소리로는 남성 목소리를 채택했다.
하지만 젠더리스 목소리는 온라인에서 '남성 표준'의 사고방식에 따라 남성으로 해석되곤 한다. 또 투자 조언가와 같은 '전문성'이 중시되는 곳에서는 남성 목소리를 여성 목소리보다 먼저 찾는다. 반대로 집안일과 관련한 부문에서는 여전히 여성 목소리가 압도적이다.
2020년 '스마트 와이프'라는 저서를 낸 디지털사회학자 욜란디 스트렌저스 모나쉬대 교수와 제니 케네디 로열멜버른공과대(RMIT) 연구원은 젠더리스나 남성 목소리를 쓰는 것만으로 문제를 근본적으로 해소할 수는 없다고 지적했다.
이들은 이 책을 소개한 인터뷰에서 "AI나 로봇의 개발 과정에서는 종종 성별뿐 아니라 인종, 연령, 장애 등의 다양한 정체성 문제가 충분히 고려되지 않고 있다"면서 "기술 기업들은 개발 과정에서부터 그 절차를 공개하고 실제 사용 중에 발생할 수 있는 여러 문제점에 대한 의견을 반영해야 한다"고 밝혔다.
기사 URL이 복사되었습니다.
댓글0