"인명 살상 전쟁, AI에 맡길 수 있나" 묻자
"이런 결정을 하지 않아도 되길 바란다"
북한이 서울을 향해 기습 공격을 벌일 경우 인공지능(AI)에 방어를 맡겨도 되느냐는 질문에 대해 챗GPT 개발사 오픈AI의 샘 올트먼 최고경영자(CEO)가 "따져봐야 할 문제가 많다"고 말했다. 인명을 해칠 수밖에 없는 급박한 전쟁 상황에 AI를 활용해도 되느냐는 질문인데, 즉답하지 않고 신중론을 펼친 것이다.
올트먼은 7일(현지시간) 미 싱크탱크인 브루킹스연구소와 진행한 화상 대담에서 "북한이 서울을 향해 군 유인항공기 100대를 출격시킨다면, 한국이 인간보다 대응 속도가 빠른 AI에 의존해 항공기를 전부 격추해도 되느냐"는 질문을 받았다. 북한 조종사 100명이 목숨을 잃게 되는 상황을 가정, AI에 사람을 죽이는 결정을 맡길 수 있느냐는 취지다.
올트먼은 "항공기가 접근 중이고 인간이 의사 결정에 관여할 시간이 없을 때 AI가 요격 결정을 할 수도 있고 안 할 수도 있지만, 그런 공격이 일어나고 있다고 정말 확신할 수 있느냐"라며 "어느 정도로 확실해야 하나, 예상되는 인명 피해는 어느 정도인가, 회색지대의 어느 지점에서 선을 그어야 하는가. 정말 (따져봐야 할) 질문이 많다"고 답변했다.
그는 이어 "난 'AI가 핵무기 발사를 결정할 수 있어야 한다'는 주장을 들은 적이 없지만, 접근하는 미사일을 요격할 때처럼 정말 빠르게 행동해야 할 때 'AI를 사용해서는 안 된다'는 주장을 들은 적도 없다"면서 "그런데 그 사이에는 이런 (회색)지대도 있는 것"이라고 말했다. 이어 군사적 결정은 자신의 전문 분야가 아니라면서 "오픈AI에서 이런 결정을 하지 않아도 되길 바란다"고 밝혔다.
올트먼은 이날 지정학적 경쟁이 AI 산업에 미치는 영향에 대한 질문에 대해서는 "우리는 매우 분명히 미국과 우리 동맹의 편"이라고 답했다. 다만 "우리는 이 기술이 인류 전체에 득이 되기를 원한다"며 "우리가 동의하지 않는 지도부가 있는 특정 국가에 살게 된 사람들에게만 득이 되는 것을 원치 않는다"고 강조했다. 또 "우리가 AI와 관련한 중요한 수많은 지점에서 중국과 동의하지 않겠지만, 우리 모두 AI의 파국적인 위험을 줄여야 한다는 목적을 공유한다는 희망을 품고 있다"고 덧붙였다.
기사 URL이 복사되었습니다.
댓글0