[저널리즘+AI] 런던 탐방기 ②
"LLM 대답, 저널리즘 풍부하게 하지 않아"
BBC, 원칙 제정으로 언론계 방향 제시
가디언은 'AI 앞에서 질문하라' 원칙부터
편집자주
생성형 인공지능(AI)의 파괴적 영향력은 언론 산업에도 불어닥치고 있습니다. 모바일 혁명의 광풍보다 셀 것이라는 생성형 AI 기반 기술은 올해 전 세계 언론사 내부의 뉴스 제작 및 편집, 유통 업무 전반에 맹렬히 뿌리내리고 있습니다. 한국 언론도 저마다 고민이 깊습니다. 인공지능을 도입하되 기술의 태생적 한계를 극복해야 하고 또, 동시에 저널리즘 가치도 굳건히 지킬 수 있는 묘수를 찾아야 하기 때문입니다. 한국일보는 그 답을 찾기 위해 지난달 21일부터 30일까지 영국 런던에서 한국언론진흥재단 주최로 열린 'KPF디플로마 AI저널리즘 과정'에 다녀왔습니다. 파이낸셜타임스, 가디언, BBC 등 AI 선도 언론사의 전략 수립 및 서비스 실험 현장을 직접 보고 왔습니다. 2회에 걸친 '저널리즘+AI 런던 탐방기'에서 그 묘수를 공개합니다.
<1편> 'AI 환각' 해법을 찾아서…가디언·FT·BBC 런던 현장 탐방기'에서 계속됩니다.
인공지능(AI) 기술은 진보하고 있지만 규범은 미비하다. 전 세계를 통틀어봐도 명문화한 AI 실정법은 지난 3월 유럽의회(EP)를 통과한 유럽연합(EU)의 인공지능법(AI Act)이 유일하다.
국내 AI 기본법 제정은 갈 길이 멀다. 21대 국회에 상정됐던 관련 법은 유야무야 폐기됐고, 22대 국회에 와서야 지난 26일 국회 과학기술정보방송통신위원회 전체회의를 통과했다. 사회적 합의 규범은 공백인 상황에서 생성형 AI 서비스와 기술은 홍수처럼 스마트폰 속 일상과 산업 현장 곳곳에 범람했다.
연관기사
언론사도 홍수를 피할 수는 없었다. 취재와 기사 제작 및 유통 전반에 어떻게 생성형 AI 기술을 도입할지에 대한 논의가 한창이다. 지난 1월 한국신문협회가 회원사 23곳을 대상으로 조사한 결과 82.6%에 달하는 19곳이 이미 생성형 AI를 활용하고 있거나 계획 중인 것으로 확인됐다. 생성형 AI 기술을 개발해 내부 기사제작시스템(CMS)에 연동하거나, 생성형 AI 기반 대화형 서비스를 내놓거나, 기자들에게 아예 생성형 AI 기술 구독비를 일부 지원하는 등 방식은 다양했다.
반면 기술 도입 전 생성형 AI 준칙을 제정한 국내 언론사는 드물다. 공식적으로 알려진 매체는 두 군데에 불과하다. 생성형 AI 도구를 앞다퉈 출시하고 있지만 대부분 해당 도구만을 위한 주의사항 몇 가지를 제시하는 정도에 그치고 있다.
무엇을 하고, 무엇은 하지 말아야 할지에 대한 논의는 기술의 바깥으로 또 밀려났다. 언론과 언론인에게는 고도의 윤리의식이 필요하다. 협회와 각 언론사 차원에서 다양한 준칙을 마련하고 반드시 지키는 이유다. AI 분야에는 이런 노력이 없어도 괜찮을까. 본보가 지난 10월 만난 영국 언론사들은 AI에도 규범이 먼저라고 입을 모았다.
BBC의 원칙: 언론이 마땅히 지켜야 할 상식
영국 BBC는 지난해 10월 'AI 원칙(AI Principles)'을 제정했다. 대원칙에 해당하는 'AI 원칙'을 시작으로 올해에는 세세하게 AI 활용 지침을 설명한 AI 사용 가이드라인, 생성형 AI를 어떻게 BBC 콘텐츠에 활용할 것인지에 대한 설명서도 만들어 온라인에 공개했다.
BBC AI 원칙은 '공공의 이익', '재능과 창의성', '개방성과 투명성' 세 가지 주제를 내세운다. 공공의 이익은 △BBC의 가치 △BBC의 편집 가치 △공정성 △보안과 견고성을 따른다. 재능과 창의성은 △데이터 보호와 프라이버시 권리 △인간의 통찰과 재능을 존중한다. 개방성과 투명성은 △투명한 설명 △책임 △인간의 감독이 뒷받침될 때 실현 가능하다고 봤다.
BBC 런던 본사에서 만난 이윤녕 BBC 선임기자는 "모든 내용이 상식적으로 이해할 수 있는 부분"이라며 "이 원칙들을 투명하게 공개하는 것부터가 공영방송에 중요하다"고 설명했다. AI를 뉴스와 저널리즘에 적용하는 방식을 공표하고, 시청자에게 알리는 절차 자체가 구성원의 진정성과 책임감을 유도한다는 뜻이다.
가디언의 질문 : "우리는 꼭 챗GPT를 써야 하는가"
한편 영국 일간지 가디언의 '생성형 AI 원칙(Our genAI principles)'은 보다 실무적인 고민과 방향을 제시한다. 가디언의 원칙은 AI 유관조직을 AI 워킹 그룹, AI 요청 그룹, 연구개발(R&D) 팀 등 세 군데로 나누고 각자에게 필요한 질문 수십 가지를 제시한다. 각 조직은 빠르게 AI 서비스를 출시하기보다 AI 원칙에 명시된 질문을 끊임없이 던지며 윤리적으로 제품을 만들어나가야 한다.
대표적인 원칙상 질문들은 이렇다. AI 워킹 그룹은 높은 단계의 질문, 기회, 위험, 방향을 논의하는 전략 조직이다. 편집국 등 각 조직의 고위 직원들이 포함된다. 이들은 △가디언이 전사적으로 챗GPT와 같은 공개된 거대언어모델(LLM)을 사용해야 하는가 △이미지 생성 도구 역시 가디언이 사용해야 하는 것인가 △구글 등 플랫폼의 생성형 AI 도입이 가디언에 어떤 영향을 주나 등과 같은 질문에 대한 답을 찾는다.
AI 요청 그룹은 생성형 AI 도구 사용 요청을 검토 및 승인하는 전술 조직이다. 법무 등 엄밀한 보안 검토가 필요한 조직들을 뜻한다. 원칙은 이들이 △생성형 AI 도구를 업무에 사용해도 되는지 △약관이 가디언과 독자, 직원을 위험에 노출시키는지 △책임감 있는 사용을 위해 어떤 규칙이나 지침을 마련해야 하는지를 고민하라고 제안한다.
R&D 팀은 뉴스룸용 도구를 만드는 기술 조직이다. △모델을 미세 조정(파인 튜닝)하는 게 가디언에 가치가 있는지 △새로운 도구의 출력을 어떻게 평가할 것인지 △환각(hallucination) 현상의 위험성을 어떻게 없앨 것인지 △독자와 직원에게 혜택을 주기 위해서는 어떤 도구를 개발해야 하는지 등이 이 조직의 미션이다.
AI 유관조직을 세 그룹으로 나누고, 각 업무영역과 해결 과제를 명확히 설정한 가디언의 방식은 전략 및 실행 방법론 두 측면에서 모두 꽤나 인상적이었다. "생성형 AI 도입에는 저작권과 같은 윤리적인 사항에 대한 고려가 필요하다. 빠르게 출시해야 한다는 압박을 느끼지 않게 해준 조직이 자랑스럽다"는 크리스 모런 가디언 편집혁신총괄의 자평에서 AI 불확실성을 헤쳐나가는 가디언 언론인들의 뚝심을 느낄 수 있었다.
※ 탐방기는 한국언론진흥재단 'KPF디플로마 AI저널리즘 과정'의 결과물입니다.
관련 이슈태그
기사 URL이 복사되었습니다.
댓글0