Research Area


HW-Aware Neural Architecture Search
(하드웨어를 고려한 AI 모델 구조 탐색)

뉴럴 구조 탐색 (NAS)은 인간의 개입 없이 최적의 신경망 구조를 자동으로 찾는 기법입니다. 우리는 기존의 NAS를 넘어서 하드웨어에 최적화 된 신경망 구조를 찾는 HW-Aware NAS 연구를 수행합니다.

Neural architecture search (NAS) provides a way to automatically find a highly accurate NN model without human intervention. However, the conventional NAS approaches come with a major flaw; they focus on increasing only prediction accuracy without considering computational cost of NN inference. This will make NAS impractical in many cases such as execution on mobile devices where computational capacity is limited. Correspondingly, hardware-aware NAS approaches are gaining attention recently as they generate network architectures that can be executed in hardware efficiently maintaining the prediction accuracy.

Your Job 연구실에 들어오면 하게 될 일

  • Understanding basic computer architecture
    기본 컴퓨터 구조에 대한 이해
  • Understanding various neural network architectures
    다양한 신경망 모델에 대한 이해
  • Evaluating how neural architecture affects hardware efficiency
    신경망 구조가 하드웨어 효율성에 미치는 영향 평가
  • Designing a novel HW-aware NAS
    특정 하드웨어에 최적인 AI 모델 구조 설계

Related Keywords 연관 키워드

HW-Aware NAS, Neural Architecture Search, Deep Learning, Computer Architecture
하드웨어를 고려한 NAS, 신경망 구조 탐색, 딥러닝, 컴퓨터구조

Hardware/Software Co-Design
(AI 하드웨어/소프트웨어 공동 설계)

AI 모델은 크기가 점점 커지는 반면에, 하드웨어 성능 향상 폭은 줄어들고 있습니다. 이러한 상황에서 AI 모델을 빠르게 동작시키기 위해 하드웨어와 소프트웨어를 동시에 고려하여 설계하는 연구를 수행합니다.

The end of Moore’s law is forcing us to establish new boundaries between hardware and software particularly in the emergence of deep learning. Hardware/Software co-designing will provide more optimization room for efficient deep learning acceleration.

Selected Publication

  • “eSRCNN: A Framework for Optimizing Super-Resolution Tasks on Diverse Embedded CNN Accelerators”
    Youngbeom Jung, Yeongjae Choi, Jaehyeong Sim, Lee-Sup Kim
    IEEE/ACM International Conference on Computer Aided Design (ICCAD), 2019 [DOI]

Your Job 연구실에 들어오면 하게 될 일

  • Understanding various model compression methods
    다양한 모델 경량화 기법 이해
  • Improving an AI algorithm to make them aware of hardware architecture
    HW 구조를 고려하여 AI 알고리즘 개선

Related Keywords 연관 키워드

Quantization, Structured Sparsity, Pruning, Model Compression
양자화, 구조적 희소성, 가지치기, 모델 경량화

Neural Processing Unit HW/SW Design
(뉴럴 프로세싱 유닛 HW/SW 설계)

AI 모델을 빠르고 에너지 효율적으로 동작시키는 하드웨어인 NPU의 HW구조 및 SW를 연구합니다.

We design a high-performance, energy-efficient Neural Processing Unit (NPU), a new type of processor dedicated for a wide range of AI workloads. It generally exploits the high degree of parallelism inherent in deep learning algorithms.

Selected Publication

  • “A 1.42TOPS/W Deep Convolutional Neural Network Recognition Processor for Intelligent IoE Systems”
    Jaehyeong Sim, Jun-Seok Park, Minhye Kim, Dongmyung Bae, Yeongjae Choi, Lee-Sup Kim
    IEEE International Solid-State Circuit Conference (ISSCC), 2016  [DOI]

Your Job 연구실에 들어오면 하게 될 일

  • Not fabricating a chip! Don’t worry (Area of EE, not CS)
    직접 칩을 제작하는 것은 아님
  • Understanding basic computer architecture and logics
    기본 컴퓨터 구조와 디지털 로직 이해
  • Designing a novel microarchitecture for deep learning acceleration
    딥러닝 가속을 위한 마이크로아키텍쳐 구상
  • Evaluating existing NPUs and improving them
    기존 NPU 평가 및 개선
  • Studying a software stack (compilers, firmwares, device drivers) for NPUs
    NPU를 위한 소프트웨어 스택 (컴파일러, 펌웨어, 드라이버 등)에 대한 연구

Related Keywords 연관 키워드

NPU, TPU, Neural Compiler, Processing-in-Memory, Computer Architecture, Digital Logic Design
뉴럴프로세싱유닛, 텐서프로세싱유닛, 뉴럴 컴파일러, 메모리내부연산, 컴퓨터구조, 디지털논리설계