편집자주
<한국일보> 논설위원들이 쓰는 칼럼 '지평선'은 미처 생각지 못했던 문제의식을 던지며 뉴스의 의미를 새롭게 해석하는 코너입니다.
“가자지구에서 세 살배기 아이가 폭탄에 목숨을 잃는 것은 우연이 아니다. 이스라엘군(IDF)이 노리는 진짜 목표 제거를 위해 계산된 결과다.” 최근 IDF의 공격 목표 결정용 인공지능(AI) ‘합소라(Habsora·복음)’를 보도한 외신 기사 중 한 문장이다. 합소라는 IDF가 축적한 3만~4만 명의 하마스 용의자 데이터베이스를 기반으로 드론 영상, 감청 자료, 감시 데이터, 개인과 대규모 그룹의 움직임과 행동 패턴 정보 등을 분석해 공격 목표를 산출한다.
□합소라가 지정하는 목표 상당수는 하마스가 머물 것으로 추정되는 가정집이다. 이는 이스라엘 정부가 하마스와 가자지구 민간인을 갈라놓으려고 의도적으로 하마스 주변 민간인도 희생시키는 ‘다히야 독트린’을 따른 결과다. IDF 전직 장교는 “합소라는 희생될 민간인이 얼마나 되는지 정확하게 예측하고, 이를 교통신호처럼 초록색, 노란색, 빨간색으로 구분해 보여준다”라고 말한다. 다른 전직 장교는 “그 판단이 얼마나 빨리 이뤄지는지 정말 공장 같다”고 했다.
□군사 작전은 ‘우다(OODA) 루프’라 불리는 검토 과정을 통해 결정된다. 불완전한 정보를 가지고 정확한 판단을 내리기 위해 ‘관찰-방향설정-결정-행동’의 단계를 순환 반복하는 것이다. 합소라는 이 우다 루프의 속도를 획기적으로 높였다. 과거 IDF가 가자지구 작전을 펼칠 때 연간 50개 목표물을 골랐는데, 합소라는 하루 100개 목표물을 지정한다. 이런 빠른 속도를 따라가려면 판단 오류에 대한 일말의 고민도 허용되지 않는다.
□더 심각한 문제는 전쟁 시 교전 윤리가 뿌리째 흔들리는 데 있다. 원격 공격 기술이 정밀해지면서, 자신의 목숨을 걸고 적을 제압하는 전투의 영웅적 측면이 없어지고 있다. 여기서 공격 목표 선택마저 인간 개입이 사라진다면 전쟁과 학살의 차이점도 희미해질 것이다. 또 IDF가 공격 AI를 신의 목소리를 뜻하는 합소라라고 부르듯, 전쟁 책임조차 모호해질 것이다. 가자지구에서는 AI가 이미 인간 생사를 결정하는 상황이 벌어지고 있는데, AI 규제는 이제 겨우 시작 단계다.
기사 URL이 복사되었습니다.
댓글0