LLM은 방대한 데이터 학습에 거대 서버 필요
학습량 적은 sLLM, 모바일·PC 등에 탑재 가능
인공지능(AI) 기술 패권 다툼의 새로운 열쇳말로 '소형화'가 떠오르고 있다. 챗GPT를 만든 오픈AI가 이끄는 초거대AI 시장 틈새를 '온디바이스AI(네트워크 연결 없이 기기에서 바로 AI 구동)'가 파고들었기 때문이다. 거대한 학습량과 정확성을 목표로 하는 거대언어모델(LLM) 대신 데이터 양이 적어 어떤 기기에서든 빠르게 움직일 수 있는 소형언어모델(sLLM)이 주목받고 있다.
1일 정보기술(IT) 업계에 따르면 구글, 마이크로소프트(MS), 메타, 아마존 등 글로벌 빅테크들은 지금까지 생성형 AI 기술을 클라우드에 적용한 뒤 이를 기업에 제공해 입지를 넓혔다. 생성형 AI의 기반 인프라인 LLM은 방대한 양의 데이터를 공부해 작동하기 때문에 엄청난 크기의 서버와 저장 공간이 필요하다. 이에 빅테크들이 자사 클라우드를 통해 AI 챗봇과 LLM 등을 쓰게 하면서 수익을 창출해 온 것. 오픈AI도 연합군인 MS의 클라우드에서 GPT시리즈 LLM의 학습을 시킨다.
하지만 온디바이스AI 기술이 이런 흐름에 틈을 내고 있다. 온디바이스AI는 정보를 서버로 보내는 과정을 거치지 않는다. 기기 자체적으로 정보를 모으고 연산한다. 클라우드를 밑바탕 삼아 제공되던 LLM 대신 별도 기기에서 구현할 수 있게 가벼워진 sLLM이 필요해진 셈이다.
특히 삼성전자가 올해 초 스마트폰 갤럭시S24에 자체 LLM인 가우스를 가볍게 해 집어넣은 '온디바이스AI'를 구현하면서 경쟁에 불을 댕겼다. 중국 스마트폰 업체인 아너도 최근 메타의 오픈 LLM인 '라마2'를 소형화해 온디바이스AI 기능을 구현했다. IT 업계 관계자는 "LLM이 모든 질문에 대답할 수 있는 백과사전이라면 sLLM은 특정 분야 맞춤형 전문사전"이라며 "sLLM은 유지 비용이 상대적으로 적게 들고 보안에 대한 걱정도 크지 않다"고 설명했다.
구글·MS 잇따라 sLLM 개발 경쟁
글로벌 빅테크의 기술 경쟁 전선도 LLM에서 sLLM으로 넓어지고 있다. 지난해 sLLM인 파이(Phi)와 오르카(Orca)를 내놨던 MS는 아예 '2024년 AI 트렌드'로 sLLM을 꼽았다. MS는 "sLLM은 인터넷이 지원되지 않는 오프라인 상태에서도 언제 어디서나 쓸 수 있다는 장점이 있다"면서 "특정 분야에선 LLM과 동등하거나 더 나은 성능을 보일 것"이라며 새로운 모델 출시를 예고했다.
구글도 지난달 21일 '젬마'를 출시하며 sLLM 경쟁에 가세했다. 젬마는 구글의 LLM인 제미나이와 같은 연구 기술로 만들어졌지만 매개 변수가 적은 소형 AI다. 노트북이나 개인용컴퓨터(PC), 모바일 등에서 실행이 가능하다. 특히 젬마는 공짜로 배포된 오픈 모델인 만큼 외부 개발자나 기업도 손쉽게 이용할 수 있다는 장점이 있다.
국내에서도 오픈소스 sLLM인 '솔라'를 개발한 업스테이지가 LG전자와 손잡고 온디바이스AI용 sLLM 개발에 나서기로 했다. 카카오는 카카오브레인이 개발한 sLLM을 바탕으로 카카오톡에 '읽지 않은 메시지 요약' 등 AI 기능을 접목하는 실험 중이다. 네이버도 LLM 하이퍼클로바에 이어 sLLM 경량화를 고심하고 있다.
시장분석기관 GMI는 세계 온디바이스AI 시장 규모가 2022년 50억 달러(약 6조 원)에서 연평균 20%씩 성장해 2032년 700억 달러(약 93조 원)에 달할 것으로 관측했다. IT 업계 관계자는 "온디바이스AI가 발전할수록 sLLM 개발 열풍도 거세질 것"이라고 봤다.
기사 URL이 복사되었습니다.
댓글0