개인정보 유출 실태 조사 릴레이
불투명한 세부 정보 수집 과정도 의문
챗GPT 개발사 “안전한 환경 조성” 다짐
[아로마뉴스(38)]4.3~7
편집자주
4차 산업혁명 시대다. 시·공간의 한계를 초월한 초연결 지능형 사회 구현도 초읽기다. 이곳에서 공생할 인공지능(AI), 로봇(Robot), 메타버스(Metaverse), 자율주행(Auto vehicle/드론·무인차) 등에 대한 주간 동향을 살펴봤다.
“유럽 각국의 개인정보 보호 당국과 이 사안에 대해 협력할 것이다.”
비상 사태로 인식됐다. 다른 나라와 연대까지 추진하면서 공동 대응을 모색할 만큼, 녹록지 않게 다가온 현실에 꺼내 든 아일랜드 당국의 규제 움직임이다. 최근 생성형 인공지능(AI) 광풍을 불러온 미국 스타트업인 오픈AI의 ‘챗GPT’로부터 개인정보 유출과 관련된 심각한 부작용을 감지하고 나서다. 3일(현지시간) 로이터통신에 따르면, 아일랜드 데이터보호위원회 대변인은 "이탈리아 당국에 관련 사안에 대해 알아보고 있는 중"이라며 정부 차원의 대책 마련에 나섰다. 이는 앞서 공표된 이탈리아의 챗GPT 차단 방침과 연계된 조치다. 이탈리아 데이터보호청은 지난달 31일 “챗GPT가 이탈리아의 개인정보 보호 기준과 규정을 충족할 때까지 접속을 일시적으로 차단할 것”이라며 “4월 1일부터 이탈리아 기반의 (챗GPT) 사용자에 대한 접속을 차단하지 않을 경우엔 벌금을 부과할 것”이라고 밝혔다. 챗GPT가 알고리즘 학습에 필요한 목적으로 개인정보를 대량으로 수집하고 저장하는 행위까지 정당화할 법적 근거가 없다는 이유에서다. 이탈리아에선 특히 “오픈AI가 20일 이내에 (문제와 연관된) 해결책을 내놓지 않으면 전 세계 매출액의 최대 4%에 달하는 벌금을 물게 될 것”이라며 강력한 제재 방침도 천명했다. 이탈리아에선 이번 조사를 통해 챗GPT가 이용자의 연령을 미확인한 상태에서 미성년자에게 부적절한 답변을 제시했는지 여부와 개인정보의 무단 사용 유무 등도 살펴볼 계획이다.
지난해 말 출시와 더불어 생성형 AI를 차세대 먹거리로 각인시킨 챗GPT에 대한 우려의 목소리가 심상치 않다. 당장 유럽을 중심으로 자국 내 챗GPT 접속 차단과 더불어 개발사에 개인정보 보호와 관련한 재발 방지 대책도 촉구하고 나섰다.
이탈리아에서 시작된 챗GPT에 대한 부정적인 분위기는 유럽 전역으로 번지고 있다. 4일 캐나다 통신에 따르면, 자국의 개인정보 보호 기관인 프라이버시위원회는 “챗GPT가 동의 없이 개인 정보를 수집, 사용하고 공표한다는 불만을 접수했다”며 “오픈AI에 대한 조사에 착수했다”고 밝혔다. 프랑스 역시 규제 기관인 정보자유국가위원회에서 최근 챗GPT가 개인정보를 무단으로 수집, 활용했다는 2건의 진정서를 접수하고 진상 조사에 들어갔다고 5일 AFP 통신이 보도했다. 진정서를 낸 이들은 “챗GPT가 정보주체의 권리와 기업의 책임성 강화를 명시한 유럽 개인정보보호법(GDPR)을 위반했다”는 입장이다. 2018년부터 시행된 GDPR은 유럽연합 내 사업장 운영 업체와 해외에서 EU 주민의 개인정보를 처리하는 기업에 적용된다. 위반시엔 전 세계 매출액의 최대 4%까지 과징금이 부과될 수 있다.
지난해 말 공개된 챗GPT는 출시 2개월 만에 1억 명의 가입자를 흡수하면서 AI 분야의 아이콘으로 떠올랐다. 이에 따라 글로벌 기업들은 앞다퉈 챗GPT와 유사한 생성형 AI 개발에 올인하고 있다.
하지만 이용자가 급증하면서 부작용도 뒤따르고 있다. 최근 불거진 챗GPT 이용자의 개인정보 유출 사고가 대표적이다. 지난달 20일 챗GPT의 일부 사용자 프로그램 이용 기록이 다른 사용자들에게 노출되면서 일시 중단된 이후 복구됐다. 이에 개발사인 오픈AI에선 지난달 24일 공지를 통해 “오류가 발생한 9시간 동안 유료인 챗GPT 플러스 회원 가운데 1.2%의 이름, 이메일 주소, 청구 주소, 신용카드의 마지막 4자리와 유효기간 등 결제 관련 정보가 의도치 않게 노출됐다”고 전했다.
챗GPT의 불투명한 세부 정보 획득 과정에도 의심의 눈초리는 더해진다. “챗GPT가 어디서 데이터를 얻었고 어떻게 처리됐는지 불투명하다”는 관련업계의 지적에 오픈AI는 아직까지 묵묵부답이다.
이와 관련, 오픈AI는 챗GPT의 안전한 이용 환경 조성에 나설 것이란 뜻을 내비쳤다. 오픈AI는 5일 공식 블로그를 통해 “AI 시스템은 엄격한 안전성 평가를 받아야 한다”며 “우리는 이에 필요한 규제가 최선의 형태로 도입될 수 있도록 정부와 적극적으로 협력하고 있다”고 말했다. 이는 최근 야기된 이용자의 개인 정보보호 유출 논란과 유해성 논란 등을 염두에 둔 대응으로 보인다. 오픈AI는 이어 “안전한 AI를 위해선 어린이 보호도 중요하다”며 “18세 이상이나 부모의 승인이 동반된 3세 이상 등을 포함한 연령 검증 옵션도 검토하고 있다”고 전했다.
기사 URL이 복사되었습니다.
댓글0