뉴럴네트워크 최적화의 방법 중 저정밀도 연산을 위한 양자화는 A100 GPU 등 최신 AI 반도체를 잘 사용하기 위해 필수적인 기술이다.
그러나, 네트워크 출력의 수준(정확도 등)을 손해보지 않으며 데이터 표현의 비트수를 줄이는 문제는, 특히 대규모 네트워크의 경우 4비트 이하 수준으로 양자화하는 것은, 아주 어려운 문제이다.
본 세미나에서는 8비트부터 1비트까지의 최근 양자화 기술 발전을, 정보량 손실 최소화, 큰 값의 보존, 고정밀도 데이터 흐름의 확보, 값의 분포의 안정화/보존이라는 개념들로 하나씩 살펴보고 서버, 모바일향 응용에서 앞으로 예상되는 양자화 문제들을 소개한다.
1988-2000: 서울대 전자공학과(전기공학부) 학부/석사/박사
2000-2004: 프랑스 TIMA 연구소 연구원
2004-2008: 삼성전자 S.LSI 책임/수석 연구원
2008-2015: 포항공대 전자전기공학과 조/부교수
2015-현재: 서울대 컴퓨터공학부 부/정교수
Neural Processing Research Center (NPRC) 센터장
서울대 연합전공 인공지능 주임교수
Copyright ⓒ 2015 KAIST Electrical Engineering. All rights reserved. Made by PRESSCAT
Copyright ⓒ 2015 KAIST Electrical Engineering. All rights reserved. Made by PRESSCAT
Copyright ⓒ 2015 KAIST Electrical
Engineering. All rights reserved.
Made by PRESSCAT