국내 연구진, AI반도체 기술 첫 개발...인간 뇌 모방 초저전력 LLM 처리
상태바
국내 연구진, AI반도체 기술 첫 개발...인간 뇌 모방 초저전력 LLM 처리
  • 권동혁 기자
  • 승인 2024.03.07
  • 댓글 0
이 기사를 공유합니다

(사진=과학기술정보통신부)
(사진=과학기술정보통신부)

 

[이슈밸리=권동혁 기자] 국내 연구진이 전력 소모를 최소화하면서도 초고속으로 거대언어모델(LLM)을 처리할 수 있는 인공지능(AI) 반도체 핵심 기술인 '상보형 트랜스포머'(Complementary-Transformer)를 세계 최초로 개발했다.

과학기술정보통신부는 한국과학기술원(KAIST) PIM반도체 연구센터와 인공지능반도체대학원 유회준 교수 연구팀이 상보형 트랜스포머를 삼성전자 28나노 공정을 통해 개발했다고 밝혔다.

상보형 트랜스포머란 인간 뇌의 구조와 기능을 모방해 설계한 뉴로모픽 컴퓨팅 시스템의 일종인 '스파이킹 뉴럴 네트워크'와 '심층 인공신경망'을 선택적으로 사용해 트랜스포머 기능을 구현하는 기술을 말한다. 

트랜스포머는 문장 속 단어와 같은 데이터 내부의 관계를 추적해 맥락과 의미를 학습하는 신경망으로 챗GPT의 원천 기술이기도 하다.

GPT와 같은 거대언어모델은 그동안 다량의 그래픽처리장치(GPU)와 250와트의 전력 소모를 통해 구동해야 했지만 연구팀은 4.5㎜×4.5㎜의 작은 AI 반도체 한 개에서 400밀리와트의 초저전력만 소모하면서도 초고속 구현에 성공했다.

기본 뉴로모픽 컴퓨팅 기술은 합성곱신경망(CNN·심층인공신경망의 하나로 이미지 인식·분류와 비디오 분석 등 시각적 데이터 처리에 사용되는 딥러닝 모델)보다 부정확해 간단한 이미지 분류 작업만 할 수 있었으나 연구진은 뉴로모픽 컴퓨팅 기술의 정확도를 CNN과 동일한 수준으로 끌어올리고 다양한 응용 분야에 적용할 수 있는 '상보형 심층신경망' (C-DNN) 기술을 활용했다고 설명했다.

사람의 뇌처럼 데이터 입력값이 크면 전력을 많이 쓰고 작으면 전력을 적게 쓰는 SNN의 특징을 활용해 작은 입력값은 SNN에, 큰 입력값은 DNN에 각각 할당하는 방식이다.

연구팀은 이러한 상보형 심층신경망 기술을 거대언어모델에 적용함으로써 초저전력·고성능의 온디바이스 AI가 가능하다는 것을 실제로 입증한 것은 물론 이론에만 머물렀던 연구 내용을 세계 최초로 AI반도체 형태로 구현했다고 과기정통부는 설명했다.

연구진은 AI반도체용 하드웨어 유닛은 DNN과 SNN을 융합한 신경망 아키텍처로 정확도를 유지하면서도 연산 에너지 소모량을 최적화, DNN과 SNN을 모두 효율적으로 처리할 수 있는 AI반도체용 통합 코어 구조 개발, SNN 처리에 소모되는 전력을 줄이는 출력 스파이크 추측 유닛 개발, LLM 파라미터의 효과적 압축을 위한 기법 사용 등 4가지 특징을 지닌다고 밝혔다.

이를 통해 GPT-2 거대모델의 파라미터를 7억800만 개에서 1억9100만 개로, 번역에 사용되는 T5 모델의 파라미터를 4억200만 개에서 7600만 개로 각각 줄일 수 있었다.

연구진은 이러한 압축 작업 결과 언어모델의 파라미터를 외부 메모리로부터 불러오는 작업에 소모되는 전력을 70% 줄이는 데 성공했다. 

연구진에 따르면 상보형 트랜스포머는 엔비디아 A100 GPU 대비 625분의 1 수준의 전력을 쓰면서 GPT-2 모델을 활용한 언어 생성에는 0.4초, T5 모델을 활용한 언어 번역에는 0.2초의 고속 동작이 각각 가능하다.

연구진은 파라미터 경량화로 언어 생성의 경우 1.2분기계수 만큼 정확도가 감소하긴 했으나 생성된 문장을 사람이 읽을 때 어색함을 느끼지 않을 수준이라고  설명했다.

유회준 교수는 "뉴로모픽 컴퓨팅은 IBM, 인텔 같은 회사들도 구현하지 못한 기술로, 초저전력의 뉴로모픽 가속기를 갖고 거대모델을 돌린 것은 세계 최초라고 자부한다"며 "온디바이스 AI의 핵심 기술인 만큼 앞으로도 관련 연구를 지속할 것"이라고 말했다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.
주요기사
이슈포토