인공지능(AI)이 사회경제 영역을 넘어 군사 분야에 빠르게 도입되고 있다. AI가 미래전의 게임체인저가 될 것이라는 평가를 받는 것도 이러한 이유다.
최근 군사 분야에서는 '책임 있는 AI(Responsible AI: RAI)'를 구현하기 위한 원칙과 실천에 대한 국제사회의 논의가 활발해지고 있다. 그러나 이를 법제화하거나 글로벌 차원의 규제·규범 논의에 적극적으로 참여하는 것에 대해서는 찬반 입장이 치열하게 맞서고 있다.
찬성론자들은 국방 AI 활용에 대한 통제 강화는 피할 수 없을 것이며 오히려 이러한 논의에 적극적으로 참여함으로써 향후 국제 표준을 주도해야 한다고 주장한다. 신중론자들은 주요 AI 강국에 비해 아직 기술수준이 낮고 군내 윤리 원칙이 불분명한 한국이 섣불리 참여할 경우, 우리 스스로 AI 개발에 불리한 족쇄를 채울 수 있다고 우려한다.
우리로서는 국방 혁신을 저해하지 않으면서도 국제수준에 걸맞은 AI 원칙을 어떻게 충족시켜 나갈지에 대한 숙제를 안고 있는 것이다. 당장 9월 9일로 다가온 2차 REAIM(Responsible AI in the Military Domain, 군사 분야에서 책임 있는 AI 이용) 고위급회의에서는 국제 거버넌스 수립 논의가 심도 있게 다뤄질 예정이다. 주최국으로서 우리는 가시적인 합의 성과뿐만 아니라 우리의 안보 이익과 부합하는 의제들을 고민해야 하는 상황이다. 한국의 환경적 맥락에 부합하는 책임 있는 AI 구현을 위해 다음과 같은 네 가지 추진 방향을 염두에 둬야 한다.
첫째, '사람이 중심이 되는 AI 윤리기준'과의 정합성을 고려한 국방 AI 윤리 기준을 마련해야 한다. '인간의 존엄성', '사회의 공공선', '기술의 합목적성'이라는 3개 기본 윤리원칙은 그대로 수용하되, 국방 혁신과 충돌하지 않는 5대 우선 핵심 요건(책임성, 통제 가능성, 신뢰성, 추적 가능성, 데이터 관리)을 선별·적용할 필요가 있다.
둘째, 'REAIM 행동강령(Call to Action)'에서 강조한 국제수준에 부합하는 AI 검증 체계를 마련해야 한다. 안정성·신뢰성의 가치 구현을 위한 책임 있는 AI 검증체계 강화, 유사입장국과 '인간-기계 협업(Human Machine Teaming)' 사례 공유 등이 대표적이다. 셋째, 편향성 방지, 투명성, 강건성 등 책임 있는 AI 세부 원칙 구현을 위한 기술개발에도 힘써야 한다. 넷째, 가장 중요한 안보 동맹인 미국과의 책임 있는 AI 기반의 협력을 체계화해야 한다. 세부보완 지침을 마련하고 AI 모델을 개발·구현하기 위한 소프트웨어 공동 개발, 이미 추진 중인 한미 AI 협력 대화체의 확대 및 정례화 노력이 대표적이다.
관련 이슈태그
기사 URL이 복사되었습니다.
댓글0