편집자주
가속화한 인공지능 시대. 인간 모두를 위한, 인류 모두를 위한 AI를 만드는 방법은? AI 신기술과 그 이면의 문제들, 그리고 이를 해결할 방법과 Good AI의 필요충분조건
지난 칼럼까지는 현재 인공지능의 발달 과정에서 발생한 5대 윤리 문제, 곧 △AI의 편향성 △오류와 안전성 △악용 △개인정보보호 △킬러로봇 등의 문제와 해결방안에 대해서 살펴보았다.
하지만 인공지능 기술은 지금 이 시간에도 끊임없이 발달하고 있으며, 향후 새로운 AI기술이 개발되면 역시 이에 따른 역기능, 부작용, 윤리 문제가 함께 발생할 수 있다. 따라서 인공지능 윤리 문제는 위의 5가지 문제에만 국한된 것이 아니며, 향후 장래에 또 다른 AI 윤리 문제들이 얼마든지 생길 수 있는 것이다. 오늘은 현재 가장 우선적으로 발생할 수 있는 AI 윤리 문제 중 하나인 '자율주행차 윤리 문제'에 대해서 이야기해 보고자 한다.
지난 2018년 말, 구글은 자회사 웨이모를 통해, 미국 피닉스 지역에서 세계 최초로 '레벨4'의 자율주행택시 서비스를 개시한다고 하여 전 세계를 놀라게 했다.
자율주행차의 기술 발달 수준은 0~5단계까지 나눌 수 있는데 0·1·2단계를 부분자율주행 단계, 3·4·5단계를 완전자율주행 단계라 한다. 현재 많이 활용하고 있는 테슬라의 오토파일럿이나 현대기아차의 스마트 크루즈 시스템 같은 경우는 2단계에 해당된다. 아직 3단계도 상용화한 기업이 없는 상황에서, 구글은 독보적인 기술력을 앞세워 레벨4의 시대가 도래했음을 선언한 것이다.
하지만 필자는 이 소식을 듣고 기술적 놀라움과 함께 안전에 대한 염려가 우려됐다. 2021년 6월, 미국 도로교통안전국은 테슬라의 오토파일럿 사용과 관련된 사망사고 30건에 대한 조사에 착수했다고 밝혔다. 아직 자율주행 기술의 결함이나 과신으로 인해 사망이나 부상사고가 꾸준히 발생하고 있는 상황에서, 자율주행기술에 대한 충분한 검증과 테스트 없이 출시하고 상용화하는 것은 인간의 목숨을 담보로 하는 매우 위험한 일이 될 수 있다.
자율주행차가 일반 대중에게 상용화되려면 총 5가지의 프로세스를 거쳐야 한다. 첫째, 레벨5라는 기술적 완성도는 기본적으로 갖춰야 한다. 출시 전 철저한 검증과 테스트를 통해 운행 도중에 오작동하거나 고장 나는 일이 절대 없어야 한다.
둘째, 지능형교통시스템(ITS, Intelligent Transport System)이 모든 도로와 차량, 관련 시설에 기본 인프라로써 갖춰져야 한다. 전국의 가로수나 도로 곳곳, 신호등, 차량, 건물 등에 모두 센서가 설치되어 자율주행차와 실시간으로 데이터를 송수신하며 교통 상황을 초고속으로 처리할 수 있어야 한다.
셋째, 도로교통법이나 보험관련법 등 기존 법에 대한 개정이 필요하다. 자율주행차가 등장하면서 기존과는 다른 상황들이 발생하게 되고 이에 따라 지켜야할 규정과 자율주행차 사고 시 책임 소재에 따른 보험처리 기준 등을 새로 설정해야 할 것이다.
넷째, 자율주행차가 해킹이나 개인정보유출 등이 이루어지지 않도록 철저한 보안 기술이 탑재돼야 한다. 항상 인터넷으로 연결돼 있는 자율주행차가 해커의 먹잇감이 된다면, 출입문 잠금장치 해킹, 가속 감속 해킹, 조향 장치 해킹 등으로 탑승자에게 매우 위험한 상황이 발생할 수 있다.
마지막으로, 가장 중요한 '자율주행차 윤리 알고리즘'이 갖춰져야 한다. 도로상에서 발생할 수 있는 수많은 경우의 수에서 과연 자율주행차는 어떤 알고리즘을 통해 어떤 판단과 결정을 내려야 하는지에 대한 윤리적 기준이 설정돼야 한다.
다음 칼럼에서는 바로 이 '자율주행차 윤리 알고리즘'이 왜 중요하고, 어떤 이슈가 있으며, 어떻게 안전성과 윤리성이 갖춰진 알고리즘을 만들 수 있는지에 대해 고민해 보기로 한다.
기사 URL이 복사되었습니다.
댓글0