윤인수 교수 연구실이 참여한 ‘팀 애틀랜타’, 미국 DARPA ‘AI 사이버 챌린지(AIxCC)’ 결승 진출 및 200만불 연구비 확보

윤인수 교수 연구실이 참여한 ‘팀 애틀랜타’,

미국 DARPA ‘AI 사이버 챌린지(AIxCC)’ 결승 진출 및 200만불 연구비 확보

 Inline image 2024 08 12 10.01.52.045

<윤인수 교수 사진>

 

24년 8월 8일부터 11일(현지 시각) 미국 라스베이거스에서 사이버 보안 분야 최고 학회 중 하나인 데프콘(DEF CON)에서 미국 고등연구계획국(이하 DARPA)의 주도하에 AI 사이버챌린지(AI Cyber Challenge, AIxCC)의 예선 대회가 진행됐다. 이는 AI를 활용한 차세대 해킹 시스템 경연 대회다. 

 

전기및전자공학부 윤인수 교수 연구실이 속한 연합팀, 팀 애틀랜타(Team Atlanta)는 국내 대학이 포함된 팀으로서는 유일하게 톱(TOP) 7에 포함돼 내년 8월 개최 예정인 AI 사이버 챌린지 결승 진출팀으로 선정됐다. 

 

팀 애틀랜타는 KAIST, 삼성 리서치, POSTECH, 조지아 공대의 연합팀으로, 현재 삼성 리서치 상무로 재직 중인 조지아 공대 김태수 교수의 연구실 출신 인원들이 주축이 되어 구성된 팀이다. 팀 이름은 조지아 공대가 있는 미국의 도시, 애틀랜타에서 유래했다.

 

 

group pregame

    < 팀 애틀랜타 단체 사진. (두 번째 줄 왼쪽 두 번째)조지아 공대 김태수 교수,    

(뒷줄 왼쪽부터 1,2,3번째) KAIST 이해인 박사과정, KAIST 허현 석사과정, KAIST 백민우 박사과정 >

 

 

팀 애틀랜타의 윤인수 교수는 세계적인 화이트 해커 출신 교수로, 세계 최고의 해킹 대회인 ‘DEF CON CTF(Capture the Flag)’에서 두 차례 우승하고 미국 해킹 대회인 ‘Pwn2Own 2020’에서 수상하는 등 뛰어난 성과를 거둔 바 있다. 학술적으로도 윤 교수는 보안 분야의 최우수 학회에 지속적으로 연구를 발표하고 있으며, 국제 학술대회 ‘USENIX Security 2018’, ‘USENIX OSDI 2018’에서 최우수 논문상을 수상하는 등 그 연구의 우수성을 인정받고 있다. 

 

이번에 개최된 AI 사이버챌린지는 각 팀이 개발한 AI 기반의 사이버 추론 시스템(Cyber Reasoning System, 이하 CRS)을 겨루는 대회로, DARPA는 리눅스와 같은 실제 소프트웨어에 과거의 취약점이나 인위적인 취약점을 포함해 문제를 출제했으며, 각 팀의 CRS는 이 소프트웨어를 자동으로 분석해 취약점을 식별하고 패치하는 작업을 수행했다. 이후 DARPA는 취약점 발견 개수 및 다양성, 패치의 정확성 등을 종합적으로 고려해 각 CRS를 평가했다.

 

 

Inline image 2024 08 12 10.05.38.972

<팀 애틀랜타의 CRS가 발견한 sqlite3 신규 취약점 및 AIxCC 결승 진출 팀 목록 >

 

 

최종 톱(TOP) 7에 선정돼 결승 대회에 진출하게 된 전기및전자공학부 윤인수 교수는 “오랫동안 준비한 대회에서 좋은 결과로 결승에 진출하게 되어 매우 기쁘다. 이번 결과는 KAIST를 비롯한 대한민국의 보안 연구 역량이 세계적으로도 우수한 수준에 도달했음을 보여준다고 생각한다”라며 소감을 전하면서, “앞으로 1년 동안 더 획기적이고 적극적인 방법들을 시도하며 AI와 보안의 접목에 혁신을 이끌어내고 본 대회를 우승 할 수 있도록 최선을 다하겠다”라고 향후 계획을 밝혔다.

2024 한국인공지능학회 유창동교수 연구실 윤희석(석박통합과정) 우수 논문상 수상

2024 한국인공지능학회 유창동교수 연구실 윤희석(석박통합과정) 우수 논문상 수상

<(좌측부터) 유창동 교수,  윤희석 석박통합과정 사진>

한국인공지능학회는 매년 분기별로 개최하는 학회이며, 이번 하계 학술대회는 8월 15일부터 17일까지 부산 벡스코에서 개최될 예정이다.
윤희석 석박사통합과정생은 “BI-MDRG: Bridging Image History in Multimodal Dialogue Response Generation”라는 제목의 논문의 우수성을 인정받아 수상자로 선정되었다.

 

또한, 해당 연구 결과는 올해 9월 이탈리아 밀라노에서 열리는 컴퓨터 비전 분야 최우수 국제 학회 중 하나인 ‘European Conference on Computer Vision (ECCV) 2024‘에서 발표될 예정이다 (논문명: BI-MDRG: Bridging Image History in Multimodal Dialogue Response Generation).

자세한 내용은 다음과 같다.

0 학회명: 2024 한국인공지능학회 하계학술대회
0 개최기간: 2024년 08월 15일 ~ 17일
0 수상명: 우수 논문상
0 저자: 윤희석, 윤은섭, 유창동 (지도교수)
0 논문명: BI-MDRG: Bridging Image History in Multimodal Dialogue Response Generation

 

본 연구는 기존의 챗GPT와 같은 멀티모달 대화형 거대 모델의 한계를 극복하고, 멀티모달 다이얼로그에서 이미지 생성의 일관성을 유지하는 혁신적인 연구로 평가받고 있다.  

 

chatgpt

그림 1 : ChatGPT와 BI-MDRG의 이미지 응답 예시 

기존의 멀티모달 다이얼로그 모델들은 이미지를 생성할 때 이미지에 대한 텍스트 묘사를 우선적으로 생성하고, 이를 text-to-image 모델을 활용하여 이미지를 생성하였다.

이러한 경우, 이전 대화에 포함되어 있던 이미지의 시각적 정보를 충분히 반영하지 못해 일관성이 부족한 이미지 응답을 생성하는 경우가 많았으나, 유창동 교수 연구팀의 BI-MDRG는 이미지의 직접적 참조 기법을 통해 이미지 정보 손실을 최소화하여 일관된 이미지 응답 생성을 가능하게 하였다. 

 

240709

그림 2 : 기존의 멀티모달 대화 시스템에서의 문제점 및 BI-MDRG 방법론 도식화

BI-MDRG는 기존 멀티모달 대화 모델이 가지는 이미지 정보 손실 문제를 해결하기 위해 설계된 새로운 시스템으로, Attention Mask Modulation과 Citation Module을 제안한다.

Attention Mask Modulation은 텍스트로 변환된 이미지 설명 대신 이미지 그 자체에 집중하여 대화를 수행할 수 있도록 하며, Citation Module은 대화 중 등장하는 동일한 물체에 Citation 태깅을 통해 이미지 응답 생성 시 유지되어야 할 물체를 직접 참조함으로써 일관된 응답을 가능하게 한다.

연구팀은 다양한 멀티모달 다이얼로그 벤치마크에서 BI-MDRG의 성능을 검증하였다. 그 결과, BI-MDRG는 높은 대화 수행능력과 일관성을 기록하였다.

 

training overall5

그림 3: BI-MDRG 모델의 상세 구조

BI-MDRG는 다양한 멀티모달 응용 분야에서 실용적인 솔루션을 제공할 수 있다.

예를 들어, 고객 서비스에서는 사용자와의 대화 내용을 기반으로 정확한 이미지를 제공하여 만족도를 높일 수 있으며, 교육 분야에서는 학습자의 질문에 대해 관련된 이미지와 텍스트를 일관되게 제공하여 이해도를 향상시킬 수 있다. 또한, 엔터테인먼트 분야에서는 대화형 게임에서 자연스럽고 몰입감 있는 상호작용을 가능하게 할 수 있다.

 

 

전기및전자공학부 김준모 교수, 24년도 정보통신•방송 기술개발사업 ‘SW스타랩 과제’ 신규 선정

전기및전자공학부 김준모 교수, 24년도 정보통신•방송 기술개발사업 ‘SW스타랩 과제’ 신규 선정

Inline image 2024 08 06 09.10.53.268

<김준모 교수 사진>

 

전기및전자공학부 김준모 교수 연구실이 과학기술정보통신부와 정보통신기획평가원(IITP)이 주관하는 정보통신•방송 기술개발사업(SW스타랩)의 2024년도 신규지원 대상으로 선정되었다.

SW스타랩 과제는 SW핵심기술 5대 분야(‘빅데이터’, ‘클라우드’, ‘알고리즘’, ‘응용SW’, ‘인공지능’)의 세계적 원천기술 확보 및 이를 주도할 석•박사급 SW인재 양성을 목표로 하며, 해당 과제에 선정된 연구실은 8년간 총 약 15억(연간 약 2억)의 연구비를 지원받게 된다.

 

김준모 교수 연구실에서는 ‘인공지능’ 분야에 “지속가능한 실시간 멀티모달 인터렉티브 생성 AI 개발”를 제안하였습니다. 해당 과제는 3D 기반의 이미지/비디오 생성 모델을 통해 기존 2D 기반 이미지/비디오 생성 모델의 문제점을 해결하는 것을 목표로 한다. 

객체를 특정 시점이 아니라 객체 그 자체로 이해하여 사실적인 객체 생성과 움직임 표현이 가능한 이미지/비디오 생성 모델을 연구한다. 또한, 멀티모달 입력 이해와 유해 컨텐츠 생성 제한과 같이 단순 생성 모델이 아닌 사회/경제적 효과가 고려된 기술 개발을  제안한다.

본 과제는 전기및전자공학부 권인소 교수가 책임교수를 맡아 KAIST 초세대협업연구실로 선정된 비전중심 범용인공지능 연구실과 연계해 시너지를 낼 것으로 기대된다.  

유민수 교수, 24년도 정보통신•방송 기술개발사업 ‘SW스타랩 과제’ 신규 선정

유민수 교수, 24년도 정보통신•방송 기술개발사업 ‘SW스타랩 과제’ 신규 선정

 

Inline image 2024 07 02 10.57.33.530

<유민수 교수 사진>

 

전기및전자공학부 유민수 교수 연구실에서 과학기술정보통신부/정보통신기획평가원(IITP)이 주관하는 정보통신•방송 기술개발사업(SW스타랩)의 2024년도 신규지원 대상과제로 선정되었다. SW분야 세계적 원천기술 확보 및 석•박사급 인재 양성을 목표로 하는 “SW스타랩” 과제에 선정된 연구실은 8년간 총 약 15억(연간 약 2억)의 연구비를 지원받게 된다.

 

유민수 교수 연구실에서는 ‘클라우드/컴퓨팅’ 분야에 “개인정보보호 인공지능의 고성능 학습을 위한 차세대 클라우드 시스템 소프트웨어(High-performance Privacy-preserving Machine Learning System Software for Cloud Computing)”를 제안하여 선정되었다.

제안한 연구는 개인정보를 보호할 수 있는 인공지능 학습 파이프라인을 개발하는 것을 목표로 한다. 개인정보를 보호할 수 있는 인공지능 학습은 데이터의 저장 및 분석 단계에서부터 학습 데이터를 생성하는 데이터 처리 및 생성, 그리고 인공지능 모델 학습까지 3단계로 이루어지는데, 이를 고성능으로 수행할 수 있는 차세대 클라우드 시스템을 개발하는 것을 목표로 하는 것이다.

 

빅테크 기업들은 다양한 인공지능 서비스들의 품질 향상을 위해, 사용자 데이터를 대량으로 수집하여 인공지능 모델을 학습하고 정확도를 개선하기 위해 큰 노력을 기울이고 있다.

하지만 이 과정에서 사용자의 민감한 개인정보가 데이터센터로 전송 및 저장, 그리고 분석되는 중에 유출되거나, 이를 기반으로 학습된 모델이 추론 서비스 시에 학습에 사용된 민감한 개인정보를 유출하는 등 사용자 개인정보보호가 국내외적으로 심각한 사회적 문제로 대두되고 있다. 본 연구는 이러한 인공지능 개인정보 침해 문제를 해결하고 안전한 신기술 정착에 기여하고자 제안되었다.

 

또한 본 연구를 성공적으로 수행할 경우, 강화된 개인정보보호 규제로 인해 인공지능 학습을 위한 연산 복잡도 및 컴퓨팅 자원 요구량이 크게 증가해, 경제성 있는 상용화 기술의 난이도가 더욱 증가할 것으로 전망되는 상황 속에서, 개인정보보호 인공지능 서비스를 위한 모델 학습 및 추론 비용을 크게 낮춤으로써 탄소 배출량 감소와 함께 해당 기술 상용화의 우위를 선점할 수 있을 것으로 기대된다.

전기및전자공학부 김창익 교수 연구팀, 비디오 인식의 새로운 패러다임을 여는 고효율 모델 ‘VideoMamba’ 개발

전기및전자공학부 김창익 교수 연구팀, 비디오 인식의 새로운 패러다임을 여는 고효율 모델 ‘VideoMamba’ 개발

1 1

<(좌측부터) 김창익교수, 박진영 석박통합과정, 김희선 박사과정, 고강욱 박사과정, 김민범 박사과정 사진>

 

챗GPT와 같은 거대 언어 모델의 근간이 되는 트랜스포머로 구축된 기존 비디오 모델보다 8배 낮은 연산량과 4배 낮은 메모리 사용량으로도 높은 정확도를 기록했으며, 추론 속도 또한 기존 트랜스포머 기반 모델 대비 4배의 매우 빠른 속도를 달성한 동영상 인식기술이 우리 연구진에 의해 개발됐다. 

우리 대학 전기및전자공학부 김창익 교수 연구팀이 초고효율 동영상 인식 모델 ‘비디오맘바(VideoMamba)’를 개발했다고 23일 밝혔다. 

비디오맘바는 기존 트랜스포머 기반 모델들이 가지고 있는 높은 계산 복잡성을 해결하기 위해 설계된 새로운 동영상 인식 모델이다. 기존의 트랜스포머 기반 모델들은 셀프-어텐션(self-attention)이라는 메커니즘에 의존해 계산 복잡도가 제곱으로 증가하는 문제를 가지고 있었다.

 

 

1 2

< 그림 1. 비디오맘바의 트랜스포머 기반 비디오 인식 모델 대비 낮은 메모리 사용량과 빠른 추론속도 >

 

김창익 교수 연구팀의 비디오맘바는 선택적 상태 공간 모델(Selective State Space Model, Selective SSM)* 메커니즘을 활용해 선형 복잡도**로 효율적인 처리가 가능하다. 이를 통해 비디오맘바는 동영상의 시공간적 정보를 효과적으로 포착해 긴 종속성을 가진 동영상 데이터도 효율적으로 처리할 수 있다.

*선택적 상태 공간 모델(Selective SSM): 입력에 따라 동적으로 매개변수를 조정하여 시퀀스 데이터의 문맥을 더 잘 이해하는 상태 공간 모델

**선형 복잡도:입력 데이터의 크기에 비례하여 계산량이 증가하는 알고리즘 복잡도 

 

김창익 교수 연구팀은 동영상 인식 모델의 효율성을 극대화하기 위해 비디오맘바에 1차원 데이터 처리에 국한된 기존 선택적 상태 공간 메커니즘을 3차원 시공간 데이터 분석이 가능하도록 고도화한 시공간적 전방 및 후방 선택적 상태 공간 모델(spatio-temporal forward and backward SSM)을 도입했다. 

이 모델은 순서가 없는 공간 정보와 순차적인 시간 정보를 효과적으로 통합해 인식 성능을 향상한다. 연구팀은 다양한 동영상 인식 벤치마크에서 비디오맘바의 성능을 검증했다. 

 

연구팀이 개발한 비디오맘바는 영상 분석이 필요한 다양한 응용 분야에서 효율적이고 실용적인 솔루션을 제공할 수 있다. 예를 들어, 자율주행에서는 주행 영상을 분석해 도로 상황을 정확하게 파악하고, 보행자와 장애물을 실시간으로 인식해 사고를 예방할 수 있다. 

의료 분야에서는 수술 영상을 분석해 환자의 상태를 실시간으로 모니터링하고 긴급 상황 발생 시 신속히 대처할 수 있다. 스포츠 분야에서는 경기 중 선수들의 움직임과 전술을 분석해 전략을 개선하고, 훈련 중 피로도나 부상 가능성을 실시간으로 감지해 예방할 수 있다.

 

2

< 그림 2. 비디오맘바 내부의 시공간적 전방 및 후방 선택적 상태 공간 모델 상세 구조 >

 

연구를 주도한 김창익 교수는 “비디오맘바의 빠른 처리 속도와 낮은 메모리 사용량, 그리고 뛰어난 성능은 우리 생활에서의 다양한 동영상 활용 분야에 큰 장점을 제공할 것이다”고 연구의 의의를 설명했다. 

이번 연구에는 전기및전자공학부 박진영 석박사통합과정, 김희선 박사과정, 고강욱 박사과정이 공동 제1 저자, 김민범 박사과정이 공동 저자, 그리고 전기및전자공학부 김창익 교수가 교신 저자로 참여했다. 

 

연구 결과는 올해 9월 이탈리아 밀라노에서 열리는 컴퓨터 비전 분야 최우수 국제 학회 중 하나인 ‘European Conference on Computer Vision(ECCV) 2024’에서 발표될 예정이다. (논문명: VideoMamba: Spatio-Temporal Selective State Space Model) 

한편, 이번 연구는 정부(과학기술정보통신부)의 재원으로 정보통신기획평가원의 지원을 받아 수행됐다. (No. 2020-0-00153, 기계학습 모델 보안 역기능 취약점 자동 탐지 및 방어 기술 개발)

전기및전자공학부 신승원 교수 연구팀, 컴퓨터 분야 최우수 학회(USENIX Security) 논문 게재

전기및전자공학부 신승원 교수 연구팀, 컴퓨터 분야 최우수 학회(USENIX Security) 논문 게재

신승원 교수 사진

<신승원 교수>

 

전기및전자공학부 신승원 교수 연구팀은 애플의 새로운 M시리즈 프로세서에서 데이터 프리패칭 기능이 기존 캐시 공격에 더욱 효과적으로 활용될 수 있다는 연구 결과를 발표했다. 데이터 프리패칭은 프로세서의 주요 최적화 기능 중 하나로, 프로그램이 필요로 하는 데이터를 미리 캐시에 로드하여 메모리 접근 시간을 줄이는 데 사용된다. 

 

프로세서들은 하드웨어적인 프리패칭 기능과 함께 소프트웨어적으로 프리패칭을 지원하기 위한 명령어 셋을 기본적으로 제공한다. 신승원 교수 연구팀은 x86과 ARM의 ISA를 비교 분석하여 ARM 기반 프로세서에서 데이터 프리패칭 기능이 캐시 공격에 더욱 효과적으로 활용될 수 있음을 증명했다. 이를 통해 세 가지 새로운 캐시 기반 공격을 고안했으며, Apple의 M시리즈 프로세서를 대상으로 코버트 채널을 구현하여 기존 캐시 공격보다 3배 이상의 속도로 데이터 전송이 가능함을 보였다. 

 

또한 암호화 키를 추출하는 사이드채널 공격에서도 기존 연구 대비 약 8배의 성능 향상을 입증했다. 신승원 교수 연구팀은 Apple이 ARM 프로세서 기반의 데스크탑용 프로세서를 직접 제작하기 시작하면서 본격적으로 펼쳐질 ARM 기반 프로세서들에 대한 취약점 연구를 선제적으로 수행했다는 점에 큰 의의가 있다고 설명했다. 

 

해당 연구는 2024년 8월 컴퓨터 보안 분야 최우수 학회 중 하나인 USENIX Security에서 발표될 예정이며, 학회 홈페이지를 통해 확인할 수 있다.

(https://www.usenix.org/conference/usenixsecurity24/presentation/choi)

전기및전자공학부 윤찬현 교수 연구팀, 확산 모델의 비정상 데이터 생성 방지 기술 개발

전기및전자공학부 윤찬현 교수 연구팀, 확산 모델의 비정상 데이터 생성 방지 기술 개발

3844436294526049410.3844438125282115741@dooray3844436294526049410.3844438125927810200@dooray3844436294526049410.3844438125940979132@dooray3844436294526049410.3844438125961007299@dooray

<(좌측부터) 윤찬현 교수, 장진혁 박사과정, 이창하 박사과정, 전민수 박사 사진>

 

우리 학부 윤찬현 교수 연구팀은 확산 모델 기반의 생성형 AI가 빈번하게 비정상 데이터를 생성하는 문제를 개선할 수 있는 Momentum기반 생성 기술을 개발하였다.

최근 큰 관심을 받고 있는 확산 모델 기반의 생성형 AI은 전체적으로 사실적인 영상을 생성하지만, 기이하게 꺾인 관절, 세 개뿐인 말의 다리 등 세부적인 부분에서 비현실적인 영상이 빈번하게 생성된다는 문제가 있다. 

 

3844436294526049410.3844438125977094538@dooray

그림 1 : 제안된 기법이 적용된 Stable Diffusion 생성 결과

 

연구팀은 문제해결을 위해 확산 모델의 생성 과정을 경사하강법과 같은 최적화 문제로 재해석하였다. 확산 모델의 생성 과정과 경사하강법은 모두 Generalized Expectation-Maximization 문제로 표현될 수 있으며, 시각화를 통해 생성과정에 실제로 수많은 Local Minima 및 Saddle Point들이 존재함을 확인할 수 있었다. 이를 통해, 부적절한 결과물들이 일종의 Local Minima 혹은 Saddle Point와 같음을 보였다.

이런 관찰에 기반해, 연구팀은 최적화에서 널리 사용되는 Momentum 기법을 생성 과정에 도입했다. 

 

다양한 실험을 통해 추가 학습이 없이도 부적절한 영상의 생성이 현저히 줄어들고, 연산량 대비 생성 영상의 품질이 올라감을 확인할 수 있었다. 본 결과는 확산모델의 생성 과정이 모두 점진적 최적화 문제라는 재해석을 제시하고, Momentum 기법을 생성 과정에 도입해 부적절한 결과물을 줄이는 결과를 보였다.

새로운 연구 성과를 통해 생성 결과의 개선뿐 아니라 생성형 AI에 대한 새로운 해석 및 다양한 후속연구를 가져올 것으로 기대된다. 해당 연구 결과는 올해 2월 캐나다 벤쿠버에서 열린 AI 분야 최우수 국제 학회 중 하나인 38th Annual AAAI Conference on Artificial Intelligence (AAAI 2024)에서 ‘Rethinking Peculiar Images by Diffusion Models: Revealing Local Minima’s Role’라는 제목으로 발표되었다.

전기및전자공학부 윤찬현 교수 연구팀, 데이터셋 저작권 보호를 위한 워터마킹 기술 개발

전기및전자공학부 윤찬현 교수 연구팀, 데이터셋 저작권 보호를 위한 워터마킹 기술 개발
 

3844433368535702746.3844433843193700912@dooray3844433368535702746.3844433843969348630@dooray

<(좌측부터) 윤찬현 교수, 장진혁 박사과정 사진>

 

전기및전자공학부 윤찬현 교수 연구팀은 AI에서 가장 중요한 요소들 중 하나인 데이터셋의 저작권을 보호할 수 있는 데이터셋 워터마킹 기술 ‘Undercover Bias’를 개발하였다.

Undercover Bias는 모든 데이터셋에는 편향이 존재하며, 편향 자체만으로도 변별력을 가지고 있다는 점에 착안해 인공적으로 생성된 가상의 편향을 삽입하는 기술이다. 본 연구는 기존의 기법들과 비교했을 때 빠르고, 눈에 보이지 않으며, 비인가 사용을 안정적으로 판별해낼 수 있다는 장점을 가지고 있다.

 

3844433368535702746.3844433843982137038@dooray

그림 1 : 제안된 기법 Undercover Bias 의 구동 방식

 

해당 기술은 최근 AI와 관련해 사회적으로 문제가 되고 있는 데이터의 저작권 및 개인 정보의 보호 문제를 해결하기 위한 방법으로, 목적이 되는 데이터셋에 아주 미미한 워터마크를 숨긴다. 이 때, 워터마크는 사람 눈으로 구별하기가 거의 불가능하며, 또한 기존 방법들과 달리 정답 Label에 아무런 변화도 주지 않는다는 특징이 있다.

그러나, 워터마크가 숨겨진 데이터셋으로 학습된 AI 모델들은 워터마크를 판별할 수 있다는 특징을 갖게 되며, 이 특징의 유무를 기반으로 해당 모델이 데이터셋을 비인가사용을 했는지 여부를 증명할 수 있다. 

 

연구팀은 제안된 방법을 통해 다양한 벤치마크에 대해 비인가 사용을 통해 학습된 모델을 100% 판별할 수 있음을 보였으며, 또한 인가 사용을 통해 학습된 모델을 3e-5%의 확률 이하로 오판별됨을 보여 매우 신뢰할 수 있음을 증명했다.

 
해당 연구 결과는 올해 10월 이탈리아 밀라노에서 열리는 컴퓨터 비전 분야 최우수 국제 학회 중 하나인 European Conference on Computer Vision (ECCV) 2024에서 ‘Rethinking Data Bias: Dataset Copyright Protection via Embedding Class-wise Hidden Bias’라는 제목으로 발표될 예정이다. ECCV은 컴퓨터 비전 분야에서 권위 있는 국제 학술대회로,  CVPR, ICCV 등의 학술대회와 함께 해당 분야 최고 수준의 국제 학회로 손꼽히고 있다. 

전기및전자공학부 윤찬현 교수 연구팀, 인공 신경망의 신뢰도 향상을 위한 네트워크 보정 기술 개발

전기및전자공학부 윤찬현 교수 연구팀, 인공 신경망의 신뢰도 향상을 위한 네트워크 보정 기술 개발

   3844424708055224837.3844427237967205768@dooray3844424708055224837.3844427238207885858@dooray

<(좌측부터) 윤찬현 교수, 조규상 박사과정 사진>

 

전기및전자공학부 윤찬현 교수 연구팀은 신경망의 신뢰도 향상을 위한 네트워크 보정 알고리즘 “Tilt and Average ; TNA” 를  개발하는데 성공하였다.  TNA 기법은 기존의 보정 지도를 기반으로하는 접근 방식과는 다른 방식으로, 분류기의 마지막 층의 가중치를 변환하는 알고리즘으로, 기존의 기법과 매끄럽게 통합될 수 있다는데에 큰 장점을 보이며, 해당 연구는 인공지능 신뢰성 증진 연구에서  탁월한 기술로 평가받고 있다. 

 

3844424708055224837.3844427238236031186@dooray

그림 1 : 제안된 기법 (TNA; Tilt And Average) 알고리즘의 가중치 조정 방식

 

해당 기술은 기존 인공 신경망이 가지고 있던 overconfident prediction 문제를 해결하기 위한 새로운 알고리즘을 제안한다. 마지막 선형 층의 고차원 기하학을 활용하는 해당 알고리즘은, 가중치의 행 벡터간 각도적 측면에 집중하여 방향을 조정(Tilt)하고 평균치를 계산(Average)하는 메커니즘을 제안하였다. 

 

연구팀은 제안된 방법을 통해 보정에러를 최대 20%까지 줄일 수 있음을 확인하였으며, 해당 알고리즘은 기존의 보정 지도 기반 기술과 통합될 수 있다는 점에 장점을 가진다. 해당 연구 결과는 올해 7월 오스트리아 비엔나에서 열리는 인공지능 분야 최우수 국제 학회 중 하나인 ICML (International Confernce on Machine Learning, https://icml.cc)에서 발표될 예정이다. 올해로 41회째를 맞은 ICML은 머신 러닝 분야에서 오랜 역사와 최고의 권위를 가지고 있는 국제 학술대회로,  CVPR, ICLR, NeurIPs 등의 학술대회와 함께 해당 분야 최고 수준의 국제 학회로 손꼽히고 있다. 

 

한편, 이번 연구는 해양경찰청 의 지원과(RS-2023-00238652) 방위사업청(DAPA) 의 지원 (KRIT-CT-23-020)을 받아 수행됐으며, 해당 논문은 Gyusang Cho and Chan-Hyun Youn, “Tilt and Average : Geometric Adjustment of the Last Layer for Recalibration” , ICML (2024) 로 찾아볼 수 있다.

전기및전자공학부 정명수 교수 연구팀, ‘CXL-GPU’시장 개화.. KAIST, 고용량과 성능 모두 잡은 GPU 개발

 전기및전자공학부 정명수 교수 연구팀, ‘CXL-GPU’시장 개화.. KAIST, 고용량과 성능 모두 잡은 GPU 개발

3842864258736465856.3843537081479012957@dooray

<정명수 교수 연구팀 사진>

 

최근 대규모 AI 서비스 제공 최전선에 있는 빅테크들은 더 좋은 성능을 사용자들에게 제공하기 위해 경쟁적으로 모델 및 데이터의 크기를 증가시키는 추세이며, 최신 대규모 언어모델은 학습을 위해 수에서 수십 테라바이트(TB, 10^12 바이트)의 메모리를 요구한다. 국내 연구진이 현재 AI 가속기 시장을 독점하고 있는 엔비디아(NVIDIA)에 맞설 수 있는 차세대 인터페이스 기술이 활성화된 고용량·고성능 AI 가속기를 개발했다.

 

전기및전자공학부 정명수 교수 연구팀(컴퓨터 아키텍처 및 메모리 시스템 연구실)이 차세대 인터페이스 기술인 CXL(Compute Express Link)이 활성화된 고용량 GPU 장치의 메모리 읽기/쓰기 성능을 최적화하는 기술을 개발했다고 8일 밝혔다. 

 

최신 GPU의 내부 메모리 용량은 수십 기가바이트(GB, 10^9 바이트)에 불과해 단일 GPU만으로는 모델을 추론·학습하는 것이 불가능하다. 대규모 AI 모델이 요구하는 메모리 용량을 제공하기 위해 업계에서는 일반적으로 GPU 여러 대를 연결하는 방식을 채택하지만, 이 방법은 최신 GPU의 높은 가격으로 인해 총소유비용(TCO·Total Cost of Ownership)을 과도하게 높이는 문제를 일으킨다.

 

CXL-GPU 대표 그림

< CXL-GPU 대표 그림 >

 

이에 차세대 연결 기술인 CXL(Compute Express Link)을 활용해 대용량 메모리를 GPU 장치에 직접 연결하는‘CXL-GPU*’구조 기술이 다양한 산업계에서 활발히 검토되고 있다. 하지만 CXL-GPU의 고용량 특징만으로는 실제 AI 서비스에 활용되기 어렵다. 대규모 AI 서비스는 빠른 추론·학습 성능을 요구하기 때문에, GPU에 직접적으로 연결된 메모리 확장 장치로의 메모리 읽기/성능이 기존 GPU의 로컬 메모리에 준하는 성능이 보장될 때 비로소 실제 서비스에 활용될 수 있다.

 

*CXL-GPU: CXL을 통해 연결된 메모리 확장 장치들의 메모리 공간을 GPU 메모리 공간에 통합시킴으로써 고용량을 지원한다. 통합된 메모리 공간 관리에 필요한 동작들은 CXL 컨트롤러가 자동으로 처리해주므로, GPU는 기존에 로컬 메모리에 접근하던 방식과 동일한 방식으로 확장된 메모리 공간에 접근할 수 있다. 기존 메모리 용량을 늘리기 위해 고가의 GPU를 추가 구매하던 방식과 달리, CXL-GPU는 GPU에 메모리 자원만 선택적으로 추가할 수 있어 시스템 구축 비용을 획기적으로 절감할 수 있다. 

 

우리 연구진은 CXL-GPU 장치의 메모리 읽기/쓰기 성능이 저하되는 원인을 분석해 이를 개선하는 기술을 개발했다. 메모리 확장 장치가 메모리 쓰기 타이밍을 스스로 결정할 수 있는 기술을 개발하여 GPU 장치가 메모리 확장 장치에 메모리 쓰기를 요청하면서 동시에 GPU 로컬 메모리에도 쓰기를 수행하도록 설계했다. 즉, 메모리 확장 장치가 내부 작업을 수행 상태에 따라 작업을 하도록 하여, GPU는 메모리 쓰기 작업의 완료 여부가 확인될 때까지 기다릴 필요가 없어 쓰기 성능 저하 문제를 해결할 수 있도록 했다.

제안하는 CXL-GPU의 구조

< 제안하는 CXL-GPU의 구조 >

 

또한 연구진은 메모리 확장 장치가 사전에 메모리 읽기를 수행할 수 있도록 GPU 장치 측에서 미리 힌트를 주는 기술을 개발했다. 이 기술을 활용하면 메모리 확장 장치가 메모리 읽기를 더 빨리 시작하게 되어, GPU 장치가 실제 데이터를 필요로 할 때는 캐시(작지만 빠른 임시 데이터 저장공간)에서 데이터를 읽어 더욱 빠른 메모리 읽기 성능을 달성할 수 있다.

CXL-GPU의 하드웨어 프로토타입

< CXL-GPU의 하드웨어 프로토타입 >

 

이번 연구는 반도체 팹리스 스타트업인 파네시아(Panmnesia)*의 초고속 CXL 컨트롤러와 CXL-GPU 프로토타입을 활용해 진행됐다. 연구팀은 파네시아의 CXL-GPU 프로토타입을 활용한 기술 실효성 검증을 통해 기존 GPU 메모리 확장 기술보다 2.36배 빠르게 AI 서비스를 실행할 수 있음을 확인했다. 해당 연구는 오는 7월 산타클라라 USENIX 연합 학회와 핫스토리지의 연구 발표장에서 결과를 선보인다.

 

*파네시아는 업계 최초로 CXL 메모리 관리 동작에 소요되는 왕복 지연시간을 두 자리 나노초(nanosecond, 10^9분의 1초) 이하로 줄인 순수 국내기술의 자체 CXL 컨트롤러를 보유하고 있다. 이는 전세계 최신 CXL 컨트롤러등 대비 3배 이상 빠른 속도다. 파네시아는 고속 CXL 컨트롤러를 활용해 여러 개의 메모리 확장 장치를 GPU에 바로 연결함으로써 단일 GPU가 테라바이트 수준의 대규모 메모리 공간을 형성할 수 있도록 했다. 

정명수 교수는 “CXL-GPU의 시장 개화 시기를 가속해 대규모 AI 서비스를 운영하는 빅테크 기업의 메모리 확장 비용을 획기적으로 낮추는 데 기여할 수 있을 것”이라 말했다.

CXL-GPU 실행 시간 평가 결과

< CXL-GPU 실행 시간 평가 결과 >