생각 많을수록 뇌 더 많이 쓰는 것처럼
기존 컴퓨팅 기술보다 에너지 효율 커
온디바이스 AI 전력 소모 한계 넘을까
국내 연구진이 인간의 뇌를 모방해 설계한 '뉴로모픽 컴퓨팅' 기술로 거대언어모델(LLM)을 구현하는 초전력 고성능 인공지능(AI) 반도체를 개발했다. 연구진은 직접 삼성전자 반도체 공정을 통해 반도체 실물도 제작했다. 엔비디아 등 극소수 기업이 장악하고 있는 AI 반도체 시장에서 새로운 가능성을 제시할 수 있을지 주목된다.
6일 과학기술정보통신부에 따르면 한국과학기술원(KAIST·카이스트) PIM반도체연구센터 및 AI반도체대학원의 유회준 교수 연구진은 인간 뇌의 동작을 모사하는 뉴로모픽 컴퓨팅 기술을 활용해 초전력·초고속으로 거대언어모델을 처리할 수 있는 '상보형 트랜스포머'를 삼성 28나노 공정을 통해 개발했다. 연구진은 해당 기술 이론을 지난해 2월 국제 학회에서 발표했고, 이를 가로 세로 길이 4.5㎜ 크기의 반도체 형태로 제작하는 데도 성공했다.
뉴로모픽 컴퓨팅은 뇌의 신경세포(뉴런)와 신경세포 사이 연결 부위(시냅스)를 모방한 회로를 사용, 전통적인 컴퓨팅 시스템보다 훨씬 효율적으로 데이터를 처리하는 기술이다. 연구진이 채택한 스파이킹 뉴럴 네트워크(SNN)는 뉴로모픽 컴퓨팅 기술 중 한 종류로, 뉴런에서 발생하는 전기 신호인 스파이크를 사용해 정보를 처리하는 방식이다. 순차적으로 정보를 처리하는 기존의 폰 노이만 컴퓨팅과 비교해 보면, 인간 뇌의 작동 방식에 가까워 수많은 정보를 병렬적으로 처리하는 특징이 있다. 이 때문에 에너지 효율도 높다. 유 교수는 이날 브리핑에서 "사람이 생각이 많을 때는 에너지 소모가 많지만, 생각이 적을 때는 에너지 소모가 적은 것처럼 입력되는 정보량에 따라 에너지가 소모되는 비율이 다르다"고 설명했다.
다만 뉴로모픽 컴퓨팅 기술은 간단한 이미지 분류 작업만 가능할 정도로 정확도가 떨어진다는 단점이 있었다. 연구진은 이를 보완하기 위해 여러 층의 신경망 구조로 이뤄져 정확도가 상대적으로 더 높은 심층인공신경망(DNN) 기술을 SNN 기술과 조합했다. 유 교수는 "입력 정보가 적으면 에너지 소모가 적은 SNN이 효율적이지만, 입력 정보가 많은 경우 DNN이 더 정확하다. 이 두 가지 장점만 활용해 전력을 적게 소모하도록 설계했다"고 말했다.
이렇게 개발한 AI 반도체는 상용화한 AI 반도체보다 훨씬 전력 소모가 적고, 속도도 빠른 것으로 나타났다. 연구진은 해당 반도체를 통해 오픈AI의 언어모델인 GPT-2로 언어를 생성하는 데 0.4초가 걸렸고, 전력 소모도 엔비디아의 그래픽처리장치(GPU) 'A100'보다 625배 적었다고 밝혔다.
최근 산업계에서 '온디바이스 AI'(외부 서버나 클라우드에 연결하지 않고 기계에서 바로 AI 서비스를 제공하는 기술)가 화두가 된 만큼, 이 같은 저전력 AI 반도체가 위력을 발휘할 수 있다는 게 연구진의 판단이다. 특히 스마트폰에서 AI 서비스가 구현되려면, 기존 AI 반도체가 갖고 있는 전력 소모의 한계를 뛰어넘는 게 필수라는 설명이다. 유 교수는 "뉴로모픽 컴퓨팅은 AI 시대에 필수인 초저전력·고성능 온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것"이라고 강조했다.
기사 URL이 복사되었습니다.
댓글0