읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기
알림

딥러닝 아버지의 걱정... "AI는 당신에게만 통하는 '1인 맞춤' 가짜뉴스도 만들 수 있다"

입력
2023.06.09 14:30
0 0

[특별 인터뷰] 요슈아 벤지오 몬트리올대 교수

편집자주

인공지능(AI) 발전 속도가 무섭도록 빠릅니다. 몇 년 전 바둑에 통달하더니, 이젠 철학 에세이를 쓰고, 변호사 시험에 척 붙습니다. AI 전문가들조차 속도를 부담스럽게 여길 지경이죠. 그러나 이렇게 눈부시게 발전하는 AI를 ‘어떻게 쓸지’를 두고 아직 사회적 합의와 공감대가 형성되지 않았습니다. 인간의 목숨과 운명이 걸린 일에 AI를 활용할 수 있을까요? 이는 기술적 문제라기보단 인문학(윤리학)이 풀어야 할 질문입니다. AI 전성시대에 인간이 마주한 딜레마, 그 해결의 실마리를 함께 고민해 봅니다.

'딥러닝의 창시자' 요슈아 벤지오 캐나다 몬트리올대 컴퓨터과학 교수. 요슈아 벤지오 제공

'딥러닝의 창시자' 요슈아 벤지오 캐나다 몬트리올대 컴퓨터과학 교수. 요슈아 벤지오 제공

'딥러닝의 창시자' 요슈아 벤지오(59) 캐나다 몬트리올대 컴퓨터과학 교수는 전세계에서 세 손가락 안에 드는 인공지능(AI) 분야 권위자다. AI는 그가 고안한 딥러닝(인공신경망을 활용한 기계학습)을 통해 그림, 글자, 소리 등 복잡한 패턴의 데이터를 인식하고 학습할 수 있게 됐다. 지금의 챗GPT를 비롯한 생성형 AI의 초석을 다진 이가 벤지오 교수다.

그 성과를 인정 받아 2018년 컴퓨터과학계 노벨상이라 불리는 튜링상을 수상한 그는 제프리 힌튼 토론토대 교수, 얀 르쿤 뉴욕대 교수, 앤드류 응 스탠포드 교수와 함께 AI계의 '4대 천왕'으로 불린다. AI 분야의 거물 중 거물이다.

그런 그가 올해 3월 일론 머스크 테슬라 최고경영자(CEO), 스티브 워즈니악 애플 공동창업자 등 업계 '빅네임'들과 함께 "초거대 AI 연구를 6개월 동안 일시중지하자"고 나섰다. AI 분야의 최전선에서 기술 진보에 누구보다 앞장섰던 벤지오 교수가 '기술 개발 중지'를 선언하자 사람들은 놀라움을 감추지 못했다. 지속적으로 AI 윤리에 관해 목소리를 내온 그였지만, 연구 자체를 중지하자는 주장은 또 다른 문제이기 때문이다. '4대 천왕' 중 이번 서한에 서명한 것도 벤지오 교수가 유일하다.

벤지오 교수는 한국일보와의 이메일 인터뷰를 통해 "불과 1년 전만하더라도 (AI 연구를 일시중지하자는) 서한에 서명하지 않았을 것"이라며 "하지만 AI 기술의 발전 속도가 예상할 수 없을 정도로 빨라진 지금, 국제사회에서 AI 규제 등을 정비할 때까지는 시간이 필요하다는 확신이 강해졌다"는 속마음을 전해왔다.

다음은 한국일보와 벤지오 교수가 주고받은 문답.

요슈아 벤지오 몬트리올대 교수가 지난 2019년 서울에서 열린 삼성 AI 포럼에 참석해 강연을 하고 있다. 삼성전자 제공

요슈아 벤지오 몬트리올대 교수가 지난 2019년 서울에서 열린 삼성 AI 포럼에 참석해 강연을 하고 있다. 삼성전자 제공

-교수님은 일론 머스크, 스티브 워즈니악 등 실리콘밸리의 거물들과 함께 "6개월 간 거대 AI 연구를 중단하자"고 요구하셨는데요.

"최근의 AI는 튜링 테스트(사람과 컴퓨터를 판별하는 테스트)를 통과하는 수준까지 빠르게 발전했어요. 인간의 상호작용과 거의 구분할 수 없을 정도로 인간과의 자연어 대화를 유창하게 구사하고 있죠. 유발 하라리('사피엔스'의 저자) 교수를 비롯해 수많은 이들이 지적한 것처럼, 악의적인 의도를 품고 있는 사람들은 이런 AI 기술의 급속한 발전을 이용해 우리 사회와 문화 속에 침투할 수 있게 됩니다.

가령 AI를 이용한 선거 결과 조작이 있을 수 있죠. AI를 통한 가짜 뉴스, 선거 조작은 과거 인간이 조직적으로 저질러 왔던 것보다 더 큰 규모로, 광범위하게 이루어질 가능성이 높습니다. 과거엔 너무 비싸서 불가능했던 개인 맞춤형 여론 조작도 가능합니다. AI가 당신의 지인인 것처럼 흉내를 내면서 접근할 수도 있는 것이죠.

인간의 손에 강력한 도구가 주어진다면, 이들 중 누군가는 조금이라도 더 많은 권력을 쟁취하기 위해 그 도구를 휘두르려고 하겠죠. 이로 인해 권력이 특정 집단에 집중되는 현상은 가속화될텐데, 이는 민주주의가 추구하는 가치와 정반대의 것이 되겠죠. 정치적 목적에 따른, 허위 정보를 이용한 여론 조작의 가능성은 AI가 민주주의의 적이 될 수 있다는 의미를 가집니다.

챗GPT의 도래와 함께 과거에 비해 10배가 넘는 강도의 경쟁에 처한 기업들이 AI 기술 고도화에만 맹목적으로 매달리고 있습니다. 그러면서 우리 AI 연구자들이 지난 10년간 추구하고 축적해 온 투명한 연구 문화는 물거품처럼 희석되고 있어요. 인류가 직면한 큰 도전을 극복하는 데 AI가 큰 도움이 되겠지만, AI를 우리 사회에 어떻게 적용할지 혹은 이를 위해 완전히 재창조에 가까운 변화가 필요할지, 지금 이 시점에 반드시 고민해야 한다고 생각합니다."

-AI 연구의 최전선에 계신 분이잖아요. 그럼에도 오히려 AI 편향 등 우려의 목소리를 내는 이유가 있을까요? 연구자로서는 AI가 어디까지 발전할 것인가에 대한 호기심이나 열정도 있을 텐데요.

"인간은 어떤 일을 할 때 그 일이 사회에 얼마나 도움이 될 수 있는지에 따라 동기부여를 할 수도 있어요. 그런 점에서 우리의 작업이 인간과 사회에 얼마나 해로울 수 있는지에 대해 걱정하는 것은 당연한 일입니다. AI 연구자가 도덕적 책임을 느끼는 것은 지극히 자연스러운 일이에요."

-교수님은 그동안 통제되지 않는 AI, 특히 AI 킬러로봇에 대해 지속적으로 경고하셨잖아요. 2018년에는 한국의 카이스트가 AI 킬러로봇을 개발 중이라는 소식에 동료 연구자들과 함께 반대 성명을 내기도 하셨는데요. 실제 군사용 AI의 도입도 멀지 않아 보입니다.

"자율무기체계(AWS) 확산을 제한하기 위한 국제조약의 필요성에 대해선 여러 번 강조해도 부족하지 않을 것입니다. AI에 의한 우리 사회의 피해를 최소화할 수 있는 기회가 조금이라도 남아있다면, 그 방향으로 나아갈 수 있게끔 항상 노력해야 합니다.

가령 당신의 집에 화재가 났다고 가정해 볼까요. 불을 발견하고 가만히 지켜보기보다는 피해를 줄이기 위해 뭐라도 최선을 다하지 않을까요? 마찬가지로 화석연료로 인한 기후변화로 지구가 불안정해진다면, 중간중간 낙담할 수 있겠지만, 결국에 인간은 탄소 배출량을 줄이기 위해 최선의 노력을 다할 것입니다.

AI 문제도 마찬가지죠. AI의 위험성을 줄일 수 있는 가능성이 존재하는 한, 우리는 그것을 최소화하기 위해 최선을 다할 의무가 있습니다."

-AI는 블랙박스와 같은 특성을 가지고 있어서, 왜 AI가 그런 결과값을 도출했는지는 설명할 수가 없다고 합니다. 그렇다면 AI를 통제한다는게 실질적으로 가능한 것일까요? 과거 교수님은 딥러닝은 무의식에서 이뤄지는 인지능력에 가까워, 사람이 의식하는 인지능력을 실현할 수 있는 새로운 학습 모델이 필요하다고 하셨죠.

"인간의 두뇌는 매우 복잡한 확률론적 '기계'입니다. 결국 언젠가는 AI가 인간의 대부분의 능력을 모방할 수 있을 겁니다. 지금의 AI는 딥러닝을 통해, 챗GP가 그러하듯, 인간의 무의식적 프로세스를 잘 구현하는 것처럼 보이죠. 하지만 미래의 AI는, 지금은 인간만의 능력처럼 보이는, 의식적 프로세스와 추론까지 가능할 겁니다.

이것은 기존 딥러닝 체계 위에 질적으로 새로운 교육 프레임워크를 구축함으로써 달성될 수 있다고 봐요. 새로운 프레임워크는 '어떤 데이터를 학습시킬 것인지'가 중요한 것이 아니라 '데이터를 어떻게 이해할 것인가'에 초점이 맞춰져 있죠. 이 경우 AI는 인간의 말을 이해한 '척'하는 문장이 아닌, 진실한 문장을 생성하는 수준까지 이를 것으로 예상됩니다."

-인간이 추론하는 수준까지 AI가 발전한다면, 지금 이 시대에 확립해야 할 AI 윤리는 어떠해야 할까요?

"불교의 가르침과 마찬가지로 윤리의 기본은 '피해를 최소화하고 행복을 극대화하는 것'이죠. 80억 명의 인류가 하나의 가족인 것처럼, 인류 전체를 위한 AI를 구상해야 합니다. 그리고 그 중심에는 인본주의적 가치가 있어야 하죠.

AI는 특히 가장 도움이 필요한 사람들, 즉 현재 가장 고통받는 이들을 위해 설계돼야 합니다. 당연히 이것은 이익을 극대화하려는 시장의 움직임과는 일치할 수 없겠죠. 그렇기에 정부가 앞장서 AI 규제 및 거버넌스를 구축해 AI가 유발할 수 있는 위험과 오남용을 방지해야 합니다. 이와 함께 환경, 교육, 복지 등 민간 투자가 부족한 분야의 AI 개발에 적극적으로 투자해 AI의 사회적 가치를 증진시켜야 합니다."

이승엽 기자

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

기사 URL이 복사되었습니다.

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.