읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기
알림
알림
  • 알림이 없습니다

‘이루다’는 왜 혐오 발언을 하게 됐나

입력
2021.01.23 08:30
13면
0 0

“이거 AI 맞아? 알바가 채팅하는 거 아냐?”
정해진 답변하는?‘심심이’와 달리
10회 문답까지 티키타카 가능한 ‘이루다’?
편향된 인간의 언어를 학습했기 때문

편집자주

현실로 성큼 다가온 인공지능(AI)시대. 생활 속에 깊숙이 스며든 AI 이야기가 격주 토요일 <한국일보> 에 찾아옵니다. 컴퓨터비전을 연구하는 정소영 서울여대 기초교육원 초빙교수가 쉽게 풀어드립니다.


이루다 페이스북 캡처

이루다 페이스북 캡처


얼마 전 ‘이루다’라는 AI 챗봇의 등장으로 실시간 검색어가 시끌시끌했다. 이루다는 ‘나의 첫 AI 친구’라는 콘셉럼 마치 실존하는 친구와 이야기하는 듯한 느낌을 준다. 예전에 출시되었던 수많은 챗봇은 몇 마디 나누다 보면 동문서답을 하거나 같은 말을 반복해서 실망스러운 경우가 많았다. ‘심심이’가 그 대표적인 예인데, 심심이는 사전에 인간이 정해준 규칙에 의해서만 대답을 하는 방식의 알고리즘 때문에 다소 기계 같은 느낌이 강했다. 하지만 이루다는 달랐다. AI 챗봇답게 진짜 사람과 대화하는 듯한 자연스러운 대화의 흐름과 친근한 말투는 ‘이거 알바 써서 채팅 시키고 있는 거 아냐?’ 하는 생각이 들 정도였다. 기술적으로 매우 훌륭했음에도 불구하고 이루다는 아쉽게도 여러 논란으로 인해 출시한 지 얼마되지 않아 서비스를 종료하게 됐다.

이루다가 처음 논란에 서게 된 것은 장애인, 성소수자 혐오 등 사회적으로 통용되는 가치와는 상반되는 부적절한 발언을 하면서부터다. 이루다는 단지 기계일 뿐인데 어떻게 증오나 혐오 등 편향적인 시각에서 의사표현을 할 수 있게 된 것일까?

챗봇을 만들 때에는 NLP(Natural Language Processing)를 사용한다. NLP는 자연어 처리 기술로, 인간이 사용하는 언어를 입력으로 받아 이를 분석해 최적의 결과값을 반복해 찾아낸다. 즉, 인간이 사용하는 언어를 통해 학습하고 결과를 내는 기술인 것이다. 이루다는 NLP를 사용한 대화 모델 중 ‘리트리벌(retrieval)’ 방식과 ‘제너레이션(generation)’ 방식을 함께 사용했다고 알려져 있다.

DB에서 답변 찾는 ‘리트리벌’ 방식과 즉각 답변 생성 ‘제너레이션’ 방식

리트리벌은 질문에 대한 답변을 미리 데이터베이스에 준비해두고 현재 대화 맥락에 맞는 답변을 찾아 선택하는 방식이고, 제너레이션은 대화에 맞춰 즉각적으로 스스로 답변을 생성하는 방식이다. 이 중 이루다는 리트리벌 방식을 메인으로 사용하는데, 리트리벌 방식에서 가장 중요한 것은 대화의 맥락을 얼마나 정확히 이해하고 그에 적절한 답변을 데이터베이스 속에서 찾는가이다. 특히 답변 데이터베이스에는 실제 사람이 한 말들이 들어있기 때문에 이 대화데이터 속에서 적절한 답변을 잘 찾기만 한다면 실제 사람과 같은 센스 있는 표현이 가능하게 된다.

또 이루다는 기존의 챗봇보다 긴 맥락의 대화를 더 잘 이해하는 기술이 들어있는데, 이 때문에 이루다와의 대화에서 ‘티키-타카’가 잘 된다고 느껴질 수 있다. 기계의 입장에서 긴 문맥을 이해하려면 현재의 대화 맥락이 어디서 나온 것인지 이전 몇 문장에서 찾아내야 하는데, 이 때 몇 문장까지 기억할 수 있는지가 얼마나 긴 호흡의 대화를 유지할 수 있는가를 결정하게 된다. 이루다는 10번 주고 받는 대화까지 연속적으로 이해할 수 있어 좀 더 구체적이고 자연스러운 흐름의 대화가 가능했다.

이루다는 리트리벌 방식을 메인으로 사용하기 때문에 스스로 답변을 생성하기 보다는 상대방이 보낸 문장의 맥락을 이해한 뒤 그에 적합도가 높은 답변을 데이터베이스 속에서 선택해 비슷하게 가공·생성한 답변을 한다. 그래서 만약 이루다가 편향적이고 부적절한 발언을 했다면 실제 사람들 간의 대화에서 그와 비슷한 내용이 오고 갔음을 의미할 수 있다. AI 이루다는 우리 사회가 현재 어떤 시각을 가지고 있는지 전반적으로 보여주는 것 아닐까?

우리는 AI가 기계이기 때문에 중립적일 것이라고 기대한다. 하지만 그렇지 않다. AI는 사회의 편향된 시각을 그대로 흡수한 뒤 가공해 제공하기 때문에 오히려 차별과 편견을 더 강화할 수 있다. AI 챗봇을 학습시키기 위해서는 실제 사람들 간의 대화데이터가 필요하고, 대화 속에는 필연적으로 그 사람의 가치관이 섞이기 마련이다. AI 챗봇을 좋은 친구로 만들기 위해서는 우리의 가치관 먼저 바로잡아야 하지 않을까?

정소영 서울여대 기초교육원 초빙교수

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

기사 URL이 복사되었습니다.

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.