인공지능(AI) 기술·제품·서비스는 우리 삶 깊숙이 스며들고 있다. 이제 인공지능은 정보를 제공하고, 재화를 추천하는 수준을 넘어 자율주행 자동차와 같이 사람의 생명·안전을 좌지우지하고, AI 면접·인사평가와 같이 사람을 평가하여 사람의 권익에 영향을 미치기도 한다.
한국의 이루다 사태, 테슬라 자율주행 오작동 사고, 미국 휴스턴 공립학교 교사 해고 사건 등 인공지능 기술을 활용한 다수 사례에서 학습데이터의 편향성, 알고리즘 차별성 및 불투명성, 기술의 정확성, 책임 주체의 모호함과 같이 다양한 종류의 문제가 제기되었다.
유럽연합, 미국을 비롯한 다수의 국가는 인공지능 기술의 한계와 위험성을 전제하여 적절한 사전·사후 규제를 입법화하고 있다. 국내에서도 국가인권위원회 '인공지능 개발과 활용에 관한 인권 가이드라인'을 비롯하여, 개인정보보호위원회 '인공지능 자율점검표', 금융위원회 '금융분야 AI 가이드라인', 방송통신위원회 '인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙'과 같은 규범을 마련하여 최소한의 윤리적·제도적 규제를 시도하였다.
그런데 지난 2월 14일 이러한 문제의식과 논의과정을 도외시한 인공지능 법안이 국회 상임위 법안심사소위를 통과하였다. 국민의 생명·안전, 권익 보호와 인공지능 산업 육성은 양자택일 문제가 결코 아니다. 그런데 위 법안은 인공지능 기술개발과 산업 육성에만 몰두한 나머지 산업 기반을 건강하게 형성할 수 있는 최소한의 규제마저 없앤 결과물이다.
인공지능 법안은 '우선 허용, 사후 규제' 원칙을 천명하고 있다. 인공지능 기술·제품·서비스가 국민의 생명·안전·권익에 위해가 되거나 공공의 안전 보장 등을 현저히 저해할 우려가 있는 경우가 아니라면 출시 등과 관련된 행위를 제한할 수 없다. 명확한 위험성이 사전에 확인되지 않는다면 사전규제를 허용하지 않는다는 것이다. 또 '사람의 생명, 신체의 안전 및 기본권 보호에 중대한 영향을 미칠 우려가 있는 영역에서 활용되는 인공지능'을 '고위험영역 인공지능'으로 분류하면서, 이 경우 사업자가 이용자에게 해당 인공지능이 고위험이라는 사실을 고지하고, 사업자에게 '신뢰성 확보 조치'를 준수하도록 '권고'하고 있다. 나름 '고위험영역' 인공지능이라고 정의한 것이라면 '고위험'을 방지할 수 있는 장치를 두는 것이 상식인데 법안에서 이러한 내용을 찾기 어렵다.
인공지능 법안에서 다른 부처의 업무영역까지 주무부처를 과학기술정보통신부로 정하고 있는 것도 한계이다. 법안은 학습용 데이터 관련 시책 수립, 인공지능 윤리원칙 제정·공표와 신뢰할 수 있는 인공지능 시책 수립도 규정하고 있다. 학습용 데이터 생산·수집·관리는 개인정보보호법 가명정보 처리에 관한 특례조항이 적용되는 것으로 관련 시책 수립은 개인정보보호위원회의 소관 사항으로 볼 여지가 있다. 또한 기술 발전과 산업 육성을 주되게 추진하는 과학기술정보통신부 역할에 비추어 보면, 전문적이고 실효성 있는 인공지능 윤리원칙이나 관련 시책을 마련할 수 있을지도 미지수이다.
인공지능 법안이 이대로 본회의를 통과할 경우, 검증 부재와 규제 미비로 인한 피해를 국민 개인이 고스란히 감당할 수밖에 없다. 대한민국 국민을 실험 대상으로 삼을 요량이 아니라면 위 법안이 인공지능의 위험성을 통제할 수 있는지를 기준으로 법안을 전면 재검토하여야 한다.
기사 URL이 복사되었습니다.
댓글0