'정확도 90%' AI 라벤더, 살상대상 정했다
비용 절감하려 민간인 무더기 살해도 용인
구호단체 '오폭'은 맞나… "실수 아냐" 주장
팔레스타인 무장 정파 하마스와 약 6개월째 전쟁 중인 이스라엘이 인공지능(AI)이 정해준 표적을 검증 없이 살해해 왔다는 증언이 나왔다. 공격 과정에서 민간인 살해에 개의치 않았던 정황도 다수 드러났다. 이스라엘이 '오폭'이라고 해명했던 구호단체 표적 공습마저 의도적이었다는 의혹이 나왔다. 이스라엘의 전쟁이 윤리를 등지고 국제법을 위반하고 있다는 비판이 날로 커진다.
"사람은 도장만 찍었다"
영국 가디언은 3일(현지시간) "이스라엘은 AI를 사용해 하마스 표적을 식별했다"고 보도했다. 가디언은 이스라엘·팔레스타인 독립 매체 '+972 매거진'과 히브리어 매체 '로컬콜'로부터 공유받은 이스라엘 정보 장교 6명의 증언을 토대로, 이스라엘군(IDF)이 개발한 AI 기반 프로그램 '라벤더'가 하마스·팔레스타인 이슬람 지하드(PIJ)와 연루된 살상 타깃을 식별해냈다고 전했다.
증언에 따르면, IDF는 전쟁 초기 라벤더를 표적 식별 도구로 적극 활용하는 것을 승인했다. 이에 따라 인간 역할은 크게 줄었다. 한 소식통은 "사람은 기계의 결정에 도장만 찍었다"며 "목표물 폭격을 승인하는 데에는 단 20초가 투자됐다"고 털어놨다. 라벤더로 식별된 수만 명의 표적 중 약 10%는 무장세력과 관련성이 약하거나, 전혀 관련되지 않았다는 점은 무시됐다.
IDF는 라벤더에 관한 증언이 보도되자 성명을 통해 "(라벤더는) 참조를 위한 데이터베이스이며, 공식적인 공격 대상 목록이 아니다"라고 해명했다.
민간인 살해는 "감수 가능"
IDF 내부자들은 돈·시간·인력을 아끼는 것이 민간인 목숨보다 훨씬 중요했다고도 입을 모았다. 가디언에 따르면 한 소식통은 AI의 오류 가능성에 대해 "하위급 무장 세력에게 인력과 시간을 쓰고 싶지는 않다"며 "부수적인 피해와 민간인 살상, 그리고 실수로 (무고한 사람을) 공격하는 오류를 감수하고라도 AI를 쓸 만하다"고 말했다.
비용을 아끼기 위해 가족까지 살해하는 일도 비일비재했다. 한 정보 장교는 "우리는 하마스 구성원이 군사 활동 중일 때 살해하는 데 관심이 없었다. 가족의 집을 폭격하는 것이 훨씬 쉽다"고 폭로했다. 공격에 주로 재래식 폭탄이 사용돼 부수적 피해가 컸던 것을 두고 다른 장교는 "(국가가) 중요하지 않은 사람들에게 값비싼 폭탄을 낭비하고 싶지 않을 것"이라고 말했다.
'민간인 살해 규정'도 관대했다. 소식통에 따르면 전쟁 초기 하급 무장세력 1인 제거 작전에 민간인 15~20명까지 살해가 허용됐다. 미국 국무부 한 국제법 전문가는 "1대 15라는 비율은, 특히 하급 전투원에 대해선 전혀 들어보지 못했다"고 가디언에 말했다. 가자지구 보건부에 따르면 지금까지 전쟁에서 사망한 팔레스타인인은 3만3,000명을 넘어섰다.
구호단체 공습도 '고의'였나
지난 1일 IDF가 국제 구호단체 월드센트럴키친(WCK)을 공격해 구호 활동가 7명을 사망케 한 일도 주변 정황이 석연찮다. 앞서 베냐민 네타냐후 이스라엘 총리는 2일 "불행히도 우리 군이 실수로 무고한 사람들을 타격했다"고 해명했다.
그러나 이는 오폭이 아니라는 의혹이 나온다. WCK 창립자인 호세 안드레스는 "이건 '앗, 폭탄을 잘못 떨어뜨렸네요' 같은 상황이 아니다"라며 IDF가 3대의 차량을 "체계적으로, 한 대씩" 공격했다고 비판했다. WCK는 사전에 IDF와 소통했고, 차량도 합의된 경로로 이동 중이었는데도 표적 공습이 이뤄진 것으로 전해졌다.
가디언에 따르면, 한 익명의 IDF 정보 장교도 WCK 공습을 두고 "(IDF 사령부는) 공격의 원인이 무엇인지 정확히 알고 있다. 가자에서는 모두가 그 사람(네타냐후 총리) 뜻대로 한다"고 이스라엘 매체 '하레츠'에 폭로했다.
기사 URL이 복사되었습니다.
댓글0