미국 '미래의 삶 연구소'는 올해 3월 인공지능(AI) 기술 개발을 6개월간 중단하자고 제안하였다. 다 같이 기술개발을 멈추고 AI의 위험성에 대한 논의와 제도적 제어 장치를 마련하기 위한 시간을 벌어보자는 이 제안에 아마존·딥마인드·구글·메타·마이크로소프트 등 세계적 하이테크 기업의 엔지니어들과 인지과학자 게리 마커스를 비롯한 학자 등 1,800여 명이 서명한 것으로 알려졌다.
AI 기술의 주도권을 둘러싼 하이테크 기업 간 경쟁이 치열하고, AI를 활용한 창업이 활발히 일어나는 등 AI가 가져올 기술적·산업적 가능성에 기대가 큰 반면, AI가 가져올 사회문제와 변화에 대한 우려와 두려움도 크다. AI가 어떻게 데이터를 습득하고, 어떻게 인간의 언어를 모방하여 그럴듯한 답변을 내놓는지, 그러한 답변이 얼마나 신뢰할 만한 것이고, 앞으로 이렇게 똑똑해진 AI가 우리 삶을 어떻게 변화시킬 것이며, 특히 인간의 노동에 대하여는 어떤 변화를 가져오게 될지 등에 대해 우리는 잘 알지 못한다. AI에 대한 우려와 두려움은 AI가 블랙박스 안에 있기 때문이다.
2022년 12월 미국의 '오픈AI'가 챗GPT를 공개하면서 스마트폰의 등장 혹은 핵 개발에 비교될 만큼 폭발적인 반응을 불러왔다. 세계적인 언어학자 촘스키 교수는 챗GPT에 대하여 "천문학적인 양의 데이터에 접근해 규칙성, 문자열 등에 기반해 문장을 만드는 첨단기술 표절시스템 (hightech plagiarism system)"이라고 평가한다. 촘스키 교수는 또한, 인간은 언어를 추론하여 사용하는 데 도덕적 사고와 책임성을 가지고 있는 반면, 챗GPT는 책임 있는 지성과는 거리가 멀다는 점에서 과학적·윤리적 한계를 지적한다. AI윤리 전문가들도, AI가 우리 사회가 가지고 있는 편견과 차별을 그대로 학습하고 전파하여 민주주의의 발전을 가로막는가 하면, 가짜 뉴스가 대규모로 전파될 수 있어 우리 사회의 신뢰를 무너뜨릴 수 있음을 경고한다.
유럽연합(EU)의 '인공지능법'(AI Act)은 이러한 우려에 대응하여 안전한 AI 활용을 제도화한 것으로 곧 표결을 앞두고 있다. 인공지능법에서는 AI의 활용분야에 따라 위험성이 낮은 분야와 높은 분야로 나누어 위험성이 높은 분야에 대하여 원천적으로 개발을 금지한다. 예를 들어 정부가 시민들의 일상 행태를 분석하는 AI는 금지 대상이다. 병원이나 자율주행자동차 등 고위험 AI 제작업체는 사고나 손해가 발생할 경우 직접 책임져야 한다. AI 윤리 전문가들은 AI로 인해 예상되는 피해를 사전에 차단하기 위하여 AI의 결정에 토대가 되는 데이터에 공공이 접근할 수 있어야 한다고 제안한다. 정부와 시민사회가 데이터를 공적으로 관리하여 인공지능이 생산해내는 결과에 대하여 수정하고 관여할 수 있도록 하자는 것이다.
AI 개발 중단이 실현되기는 어려워 보이지만 그 메시지는 소중하다. 기술 개발 경쟁만이 중요한 것이 아니라 AI가 초래할 위험에 대하여 인지하고 이를 감시하기 위한 시민사회의 역할이 정의되고, AI의 개발과 활용을 규제하기 위한 법적 장치 마련이 시급하다. AI가 블랙박스 안에 숨지 않도록 AI 개발과정에 전문가는 물론 시민 참여가 이뤄져야 한다. AI가 두려움의 대상이 아닌 사회문제를 해결하고 인류의 삶에 풍요를 가져다주는 기술이 되도록 하는 것은 우리 시민들의 몫이다.
기사 URL이 복사되었습니다.
댓글0