본문으로 바로가기

국내외 과학기술 정책에 대한 간략한 정보

단신동향

국내단신

KAIST, 뉴로모픽 컴퓨팅 기반의 초저전력 거대 언어 모델 AI 반도체 핵심기술 ‘상보형-트랜스포머’ 개발 원문보기 1

  • 국가 한국
  • 생성기관 과학기술정보통신부
  • 주제분류 핵심R&D분야
  • 원문발표일 2024-03-06
  • 등록일 2024-03-15
  • 권호 258

KAIST PIM반도체 연구센터와 AI반도체 대학원 유회준 교수 연구팀이 400밀리와트 초저전력을 소모하면서 0.4초 초고속으로 거대 언어 모델을 처리할 수 있는 AI반도체 상보형-트랜스포머*를 삼성 28나노 공정을 통해 세계 최초 개발

* 상보형 트랜스포머(Complementary-Transformer): 스파이킹 뉴럴 네트워크(SNN)과 심층 인공신경망(DNN)을 선택적으로 사용해 트랜스포머 기능을 구현

- 그동안 다량의 GPU250와트의 전력소모를 통해 구동되는 GPT 등 거대 언어모델(LLM)4.5mm x 4.5mm의 작은 한 개의 AI 반도체 칩 상에서 초저전력으로 구현 성공

- 특히 인간 뇌 동작을 모사하는 뉴로모픽 컴퓨팅 기술, 스파이킹 뉴럴 네트워크(Spiking Neutral Network, SNN) 활용하여 트랜스포머 동작을 구현한 것이 특징

- 본 연구는 거대모델의 파라메타 수를 줄이는 데에만 집중된 최근 연구 트렌드와 달리 파라미터 수 감소에 더해 초저전력 처리가 가능한 뉴로모픽 컴퓨팅을 거대 언어모델 처리에 적용하여 에너지 효율을 극대화하였다는 점이 획기적


배너존

  • 과학기술정보통신부
  • 케이투베이스
  • ITFIND
  • 한국연구재단
  • 한국연구개발서비스협회
  • 한국과학기술정보연구원