Research
Our research is currently sponsored by NRF and IITP.
NPU and Domain-Specific Hardware
신경처리장치 및 도메인 특화 프로세서 설계
We design high-performance, energy-efficient Neural Processing Units (NPUs), a new type of processor dedicated for a wide range of AI workloads. We also explore domain-specific processors for state-of-the-art algorithms.
다양한 AI 작업에 특화된 고성능, 에너지 효율적인 신경처리장치 (NPU)를 설계합니다. 또한 최신 최첨단 알고리즘을 위한 도메인 특화 프로세서 설계 기회도 모색하고 있습니다.
Your Job
- •Understanding basic computer architecture and digital logics
- •Evaluating existing NPUs and improving them
- •Designing a novel microarchitecture for NPUs or domain-specific processors
- •Studying a software stack (compilers, firmwares, device drivers) for accelerators
Efficient AI
효율적인 AI
We study model compression techniques such as quantization, pruning, and knowledge distillation to make AI models smaller and faster without significant accuracy loss.
양자화, 프루닝, 지식 증류 등의 모델 압축 기술을 연구하여 정확도 손실 없이 AI 모델을 더 작고 빠르게 만듭니다.
Your Job
- •Quantization (PTQ and QAT)
- •Network pruning (structured and unstructured)
- •Knowledge distillation
- •Neural network hardware-software co-optimization
Hardware-Aware NAS
하드웨어 인지 신경망 구조 탐색
We research hardware-aware neural architecture search (NAS) and neural architecture accelerator search (NAAS) to find optimal network architectures that run efficiently on target hardware.
목표 하드웨어에서 효율적으로 동작하는 최적의 네트워크 구조를 찾기 위한 하드웨어 인지 신경망 구조 탐색 (NAS) 및 신경망 구조 가속기 탐색 (NAAS)을 연구합니다.
Your Job
- •Designing hardware-aware search spaces
- •Multi-objective optimization (accuracy vs. latency vs. energy)
- •Differentiable NAS and one-shot methods
- •Co-design of neural architectures and accelerators
Processing-in-Memory (PIM)
프로세싱 인 메모리
We explore processing-in-memory (PIM) architectures that perform computation directly where data resides, breaking the memory wall bottleneck in conventional computing systems.
기존 컴퓨팅 시스템의 메모리 병목 현상을 극복하기 위해 데이터가 저장된 곳에서 직접 연산을 수행하는 PIM 아키텍처를 연구합니다.
Your Job
- •Understanding PIM architectures (DRAM-based, SRAM-based)
- •Developing PIM-friendly algorithms
- •Mapping neural network operations onto PIM substrates
- •PIM compiler and software stack
Efficient LLM Serving
효율적인 LLM 서빙
We study efficient inference techniques for Large Language Models (LLMs), including KV cache optimization, speculative decoding, and system-level optimizations for serving LLMs at scale.
KV 캐시 최적화, 투기적 디코딩, 대규모 LLM 서빙을 위한 시스템 수준의 최적화 등 대규모 언어 모델 (LLM)의 효율적인 추론 기술을 연구합니다.
Your Job
- •KV Cache compression and management
- •Speculative decoding strategies
- •Efficient attention mechanisms
- •System-level optimizations for LLM serving
On-Device AI
온디바이스 AI
We research techniques to deploy AI models on resource-constrained edge devices such as smartphones, IoT devices, and embedded systems while maintaining acceptable performance.
스마트폰, IoT 장치, 임베디드 시스템 등 자원이 제한된 엣지 디바이스에서 적절한 성능을 유지하면서 AI 모델을 배포하기 위한 기술을 연구합니다.
Your Job
- •Model optimization for mobile and embedded platforms
- •On-device training and fine-tuning
- •Edge-cloud collaborative inference
- •Benchmark and profiling for edge AI