읽는 재미의 발견

새로워진 한국일보로그인/회원가입

  • 관심과 취향에 맞게 내맘대로 메인 뉴스 설정
  • 구독한 콘텐츠는 마이페이지에서 한번에 모아보기
  • 속보, 단독은 물론 관심기사와 활동내역까지 알림
자세히보기 닫기
호킹 “AI, 무심결에 인류 망하게 할 수도 있다”

알림

호킹 “AI, 무심결에 인류 망하게 할 수도 있다”

입력
2017.03.12 16:48
0 0

“세계 정부 만들어 통제를”

스티븐 호킹. 한국일보 자료사진
스티븐 호킹. 한국일보 자료사진

세계적인 물리학자 스티븐 호킹 박사가 최근 더타임스와의 인터뷰에서 급성장하는 인공지능(AI)을 통제할 수 없는 시점이 다가오고 있다며, 전세계를 총괄할 수 있는 정부를 만들어 대재앙을 막아야 한다고 주장했다고 11일(현지시간) 영국 언론들이 보도했다. 호킹 박사는 “통제 가능한 지금 AI기술을 통해 발생할 수 있는 잠재적인 위협을 규정하고, 이에 대한 세부적인 지침을 만들어야 한다”며 “가능하면 전세계적으로 AI기술의 사용 용도와 규제에 대한 표준화가 이뤄져야 하며, 신설된 세계 정부기관이 법규를 만드는 게 가장 좋을 것”이라고 인터뷰에서 설명했다. 기술이 발전함에 따라 핵 또는 생물학적 전쟁에 의해 인류가 멸망할 수 있다는 게 이유다.

호킹 박사는 2015년에도 AI의 위험성에 대해 경고한 바 있다. 그는 “AI는 어떤 목표를 달성하는데 최적화돼 있다”며 “문제는 AI의 목표가 인류의 목표와 부합하지 않을 때 발생한다”라고 설명했다. AI가 무심결에 인류를 망하게 할 수 있다는 설명도 곁들였다. 당시 호킹 박사는 “수력발전소를 만들어야 하는데, 물이 차는 지역에 개미집이 있다면 당신이 악의에 차서 개미들을 밟아 죽인 건 아니지만 어쨌거나 개미들은 죽인 게 된다. 개미에게는 똑같이 자신들을 죽인 나쁜 사람인 거다. 인류를 홍수가 나는 지역의 개미떼가 되지 않게 해야 한다” 고 말했다. 채지선 기자 letmeknow@hankookilbo.com

기사 URL이 복사되었습니다.

세상을 보는 균형, 한국일보Copyright ⓒ Hankookilbo 신문 구독신청

LIVE ISSUE

댓글0

0 / 250
중복 선택 불가 안내

이미 공감 표현을 선택하신
기사입니다. 변경을 원하시면 취소
후 다시 선택해주세요.