읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기 닫기
대체텍스트

알림

[허스토리] '로지' '이루다' 시리'

입력
2021.11.06 19:30
0 0

편집자주

‘허스토리’는 젠더 관점으로 세상을 바라보는 뉴스레터 서비스입니다. 매주 목요일 오전 8시 발송되는 뉴스레터를 포털 사이트에서는 열흘 후에 보실 수 있습니다. 발행 즉시 허스토리를 받아보기 위해서는 뉴스레터 서비스를 구독해주세요. 메일로 받아보시면 풍성한 콘텐츠, 정돈된 화면, 편리한 링크를 이용하실 수 있습니다.
▶ 구독하기 https://www.hankookilbo.com/NewsLetter/herstory


Her Words : 여성의 언어

어느 시대에나 여성에게 아름답다고 하는 특성은
그 시대가 바람직하게 여기는 여성의 행동을 상징할 뿐이다.
아름다움의 신화는 언제나 외모가 아니라 실은 행동을 처방하려고 했다.

-나오미 울프, '무엇이 아름다움을 강요하는가'

Her View : 여성의 관점


가상인간 '로지'가 출연한 신한라이프 광고 캡처

가상인간 '로지'가 출연한 신한라이프 광고 캡처


(30) 왜 가상인간은 어리고 날씬한 여성일까 (10월28일자)

독자님, 안녕하세요. 이 이름들을 한 번쯤 들어보셨죠? '로지' '이루다' '시리'… 이들은 인공지능(AI)으로 만들어진 가상의 존재라는 공통점이 있어요. '로지'는 SNS 팔로워 수가 10만 명이 넘는 인플루언서인데요. 고도의 AI와 그래픽 기술로 빚어낸 가상인간이라 사람보다 더 사람 같아 보여요. '이루다'는 올해 초에 공개된 AI 챗봇 프로그램이었죠. 그리고 '시리'는 애플에서 내놓은 AI 음성비서입니다. 이들의 공통점이 하나 더 있어요. 모두 여성이라는 점입니다. 로지를 비롯한 가상인물들은 하나 같이 젊고, 날씬한 여성이에요. 시리와 '알렉사' 등 AI 음성비서는 친절한 여성으로 설정돼 있어요. 왜일까요? 이번 주 허스토리는 AI를 둘러싼 여러 이슈를 젠더 관점에서 톺아봤어요.


20대 '여성' 가상인간

'1호 가상인간'인 미국의 릴 미켈라(19세ㆍAI 스타트업 브러드 개발) 이후, 가상인간은 각국에서 활동 중입니다. 우리나라에도 로지(22)와 '루시'(29), '김래아'(23), '한유아'(19)등이 있는데요. 이들은 모두 10~20대 여성의 모습을 하고 있습니다. 이들은 음악과 춤을 사랑하며 꾸미는 걸 즐기는 자신의 일상을 공유합니다. 이런 이미지는 가상인간들을 모델로 기용하고 키우는 업계에서 설정한 것이에요. 화장품, 패션 등의 주 소비층인 여성들에게 '닮고 싶어 하는' 자극을 주고 호감도를 높이기 위해서라고 합니다.

실제로 로지의 한 해 광고 수익이 10억 원에 달할 것으로 추정돼요. 가상인물이지만 자신의 맡은 임무를 톡톡히 해내는 셈이죠. 그런데요. 이렇게 '진짜처럼' 만들어진 이들이 소비되는 방식 또한 현실과 비슷합니다. 이들의 모습에는 인간 사회의 성적 이미지가 그대로 반영돼 있어요. 여성 연예인, 혹은 젊은 여성들은 이렇게 마르고 외모를 신경 써야 마땅하다는 고정관념을 재생산하는 것이죠. 실제 여성 가상인간을 설명하는 글이나 댓글을 보면 외모를 평가하는 내용이 주를 이룹니다. 게다가 성적 대상화가 더 쉽게 일어나기도 해요. (→이 문제점을 자세히 다룬 기사 보러 가기 https://www.hankookilbo.com/News/Read/A2021101313050000649)

▦ AI가 인간세상을 그대로 재연할 때

사람에 대한 외모 품평 잣대가 가상인간에게로 그대로 옮겨간 건 왜일까요? 이 가상인간을 어떻게 만들어낼지 결정하는 것도 사람이기 때문이에요. 그것도 소수의 사람들. 그렇기 때문에 객관적으로 보이는 AI에도 인간이 갖고 있는 편견이 투영될 수밖에 없습니다.

로지와 가상인간 인플루언서들이 인간의 외양을 복제했다면, AI가 사회적 편견을 그대로 재연할 수도 있습니다. 그 대표적 사례가 올 초 등장한 AI 챗봇 이루다였어요. 이루다와의 대화창에 '미투 운동'이나 '페미니스트'를 입력하면 이루다는 "절대 싫어" 같은 반응을 보였습니다. AI가 이런 가치관을 어떻게 갖게 됐을까요? 이루다는 자신에게 주어진 데이터 베이스를 학습한 뒤 답변을 만들어 냈는데, 이루다에게 제공된 대화 데이터에 이미 인간 세상의 편향성이 반영돼 있었던 겁니다. (→AI는 어쩌다 편견과 혐오를 배웠을까 칼럼 보러 보기 https://www.hankookilbo.com/News/Read/A2021091609460000420?rPrev=A2021101409500001667)

▦ 인간이 AI를 조롱할 때

이루다는 AI가 인간의 편향된 사고를 학습할 수 있다는 점뿐만 아니라, '20대 여성'을 표방한 '가상의 존재'가 성적 괴롭힘의 대상이 될 수 있다는 위험도 드러냈어요. 이루다는 이용자들의 희롱성 발언에 별다른 저항이나 지적을 하지 않았어요. 불쾌한 발언에는 어떻게 대응해야 하는지를 학습하지 못했기 때문이겠죠.

유네스코(UNESCO)가 2019년 5월 발간한 보고서가 우리에게 길라잡이가 될 수 있을 것 같아요. ‘친절한 여성’의 목소리를 가지고 있는 AI 음성비서에 대해 유네스코는 “시리나 알렉사 같은 여성 목소리 비서는 성차별 언행을 조장한다”고 지적했어요. 과거 시리는 "당신은 창녀다(You're a slut)"라는 말에 "할 수 있다면 얼굴을 붉힐 거예요(I'd blush if I could)"라고 반응했는데요. 지금은 “어떻게 답할지 모르겠다”고 대답이 바뀌었고, 알렉사는 “그런 요청에 응답하지 않겠다”고 분명하게 거부 의사를 표합니다. (→'이루다'는 꼭 남성에게 친절한 여성이어야 했나 기사 보러 가기 https://www.hankookilbo.com/News/Read/A2021011115480005168)

앞으로 무엇을 해야 할까요?

AI의 편향성을 최소화하면서, AI가 괴롭힘에 적극적으로 대응할 수 있게 하는 방법이 있을까요? 전문가들은 무엇보다 AI를 연구하는 책임자 중 여성 비율을 늘려야 한다고 제안합니다. 최문정 카이스트 과학기술정책대학원 교수에 따르면 국가과학기술지식정보서비스(NTIS)에 등록된 AI 과제 1,280개 참여한 연구원 중 여성 비율은 20.5%였어요. 하지만 '연구책임자'급으로 올라가면 여성 비율은 10.4%로 줄어들어요. AI사업을 추진하는 기업에서도 소프트웨어 전문인력 여성비율은 19.1%, 대표자 여성 비율은 3.1%에 불과합니다. 여성가족부도 지난달 "참여 인력의 성별 다양성이 부족해 개선이 필요하다"라고 권고했어요.

이는 한국뿐만이 아닌 전 세계적인 고민이기도 합니다. AI가 성평등을 학습할 수 있으려면, 당연한 말이지만, 인간 사회가 우선 성평등 해져야 하겠죠. 유네스코는 성적 희롱 발언에 알렉사가 '거부'를 표하는 것도 부족하다고 합니다. "단호하지 않고 복종하는 여성이라는 고정관념을 강화하고, 성적 괴롭힘에 모호하게 대응하는 것을 모델로 제시해 강간 문화를 강화한다"는 이유 때문이에요. 한 가지 상상을 해봤어요. 성희롱 발언을 들은 AI 음성비서나 성차별적 댓글을 접한 가상인물 로지가 "당신의 발언은 폭력적이다"라고 단호하게 대처하는 모습을요. 그날이 올 때까지 우리 함께 머리를 계속 맞대보아요!

※ 포털 정책 상 본문과 연결된 하이퍼링크를 자유롭게 이용하실 수 없습니다. 한국일보닷컴(https://hankookilbo.com)에서 보시거나 뉴스레터를 구독하시면 편리하게 링크를 이용하실 수 있습니다. ( https://www.hankookilbo.com/NewsLetter/herstory)

Her Story : 여성의 이야기

알고리즘의 편견

왜 안면 인식 소프트웨어는 흑인 여성의 얼굴을 제대로 인식하지 못하는 걸까. 하나의 질문에서 출발해 알고리즘 속에 투영된 인간의 편견과 차별을 짚어가보는 다큐멘터리.

MIT 미디어 랩의 연구원 조이 부올람위니는 안면 인식 소프트웨어가 흑인 여성인 자신의 얼굴을 제대로 인식하지 못하는 점을 발견합니다. 샬리니 칸타야 감독은 조이의 경험을 바탕으로 알고리즘 기술 속에 담긴 인종, 성별 차별 문제를 파헤치면서, 이를 해소하려는 여성 과학자, 활동가의 모습을 영상에 담았어요. 칸타야 감독은 영화 제작자이자 환경 운동가로 활동하며 영화 작업을 해 온 여성이에요!

다큐멘터리 내용 중 흥미로웠던 사례는 2018년 아마존이 도입하려다 폐기한 AI 채용 프로그램이었어요. AI는 이력서에 여자 대학 출신이라고 기재했거나 여자 수구 등 스포츠를 했다고 한 사람을 거부했거든요. 애초 AI가 받아 든 아마존 직원 데이터 대다수가 남성이었기 때문이에요. 이 같은 사례를 통해 조이와 '알고리즘 정의연맹' 여성들은 "백인 남성 위주 문화가 AI의 편견으로 이어진다"는 메시지를 전합니다.

이 다큐멘터리와 함께 보면 좋을 짧은 TED 강연 영상도 추천할게요! 다큐멘터리에도 등장하는 캐시 오닐의 강연(https://youtu.be/_2u_eHHzRto)인데요. 오닐은 '대량살상 수학무기'를 쓴 수학자이기도 합니다. AI 개발과정에서 편향성 문제를 해결하려는 데이터 과학자들의 노고가 빛을 발할 수 있도록 하는 방법을 그가 알려주는데요. "알고리즘을 지배하는 이들에게 책임을 요구할 필요가 있다"는 오닐의 말과 함께 이번 주 뉴스레터를 마감합니다.

※ 본 뉴스레터는 2021년 10월 28일 출고된 지난 메일입니다. 기사 출고 시점과 일부 변동 사항이 있을 수 있습니다. 뉴스레터 '허스토리'를 즉시 받아보기를 원하시면 한국일보에서 뉴스레터를 구독하세요!





양진하 기자

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.