전기및전자공학부 윤영규 교수 연구팀 생체 형광신호 고정밀 측정을 가능하게 하는 AI 영상 분석 기술 SUPPORT 개발

전기및전자공학부 윤영규 교수 연구팀 생체 형광신호 고정밀 측정을 가능하게 하는 AI 영상 분석 기술 SUPPORT 개발

 

[윤영규 교수 연구팀 생체 형광신호 고정밀 측정을 가능하게 하는 AI 영상 분석 기술 SUPPORT 개발]

연구팀

<(왼쪽부터) 전기및전자공학부 윤영규 교수, 엄민호 박사과정, 한승재 박사과정>
 
 
KAIST(총장 이광형)는 전기및전자공학부 윤영규 교수 연구팀이 기존 기술 대비 10배 이상 정밀하게 생체 형광 신호 측정을 가능하게 하는 AI 영상 분석 기술을 개발했다고 19일 밝혔다. 
 
최근 유전공학 기술의 발전을 바탕으로 살아있는 생체조직 내 특정 이온 농도나 전압 등의 각종 생체 신호를 형광신호1로 변환하는 것이 가능해졌으며, 형광현미경을 활용하여 생체조직의 타임랩스 영상2을 촬영함으로써 이러한 신호들을 고속으로 측정하는 기술들이 개발되어 활용되고 있다. 그러나, 생체조직에서 방출되는 형광신호가 미약하기 때문에 빠르게 변화하는 신호를 측정할 경우 매우 낮은 신호대잡음비를 가지게 되어 정밀한 측정이 어려워지게 된다. 
 
특히, 신경세포의 활동전위(action potential)와 같이 밀리초 단위로 변화하는 신호를 측정할 경우 측정의 정밀도가 매우 낮아진다. 
 
 
이에 윤 교수 연구팀은 기존 기술 대비 10배 이상 정밀한 측정을 가능하게 하는 AI 영상 분석 기술을 개발했다.
이 기술을 활용하면 별도의 학습데이터 없이, 낮은 신호대잡음비를 가지는 형광현미경 영상으로부터 데이터의 통계적 분포를 스스로 학습하여 영상의 신호대잡음비를 10배 이상 개선할 수 있다.
이를 활용하면 각종 생체신호의 측정 정밀도가 크게 향상될 수 있어 생명과학 연구 전반과 뇌질환 치료제 개발에 폭넓게 활용될 수 있을 것으로 기대된다. 
 
 
윤 교수는 “이 기술이 다양한 뇌과학, 생명과학 연구에 도움이 되길 바라는 마음을 담아 SUPPORT (Statistically Unbiased Prediction utilizing sPatiOtempoRal information in imaging daTa)라는 이름을 붙였다”며, “다양한 형광이미징 장비를 활용하는 연구자들이 별도의 학습 데이터 없이도 쉽게 활용 가능한 기술로, 새로운 생명현상 규명에 폭넓게 활용될 수 있을 것”이라고 말했다.
 
 
공동 1저자인 엄민호 연구원은 “서포트(SUPPORT) 기술을 통해 관측이 어려웠던 생체 신호의 빠른 변화를 정밀하게 측정하는 것에 성공했다. 특히 밀리초 단위로 변하는 신경세포의 활동전위를 광학적으로 정밀하게 측정할 수 있어 뇌과학 연구에 매우 유용할 것이다”라고 하였으며, 공동 1저자인 한승재 연구원은 “서포트 기술은 형광현미경 영상 내 생체신호의 정밀 측정을 위해 개발되었지만, 일반적인 타임랩스 영상의 품질을 높이기 위해서도 폭넓게 활용 가능하다.”라고 말했다.
 
 
이 기술은 KAIST 전기및전자공학부 윤영규 교수팀의 주도하에 KAIST 신소재공학과(장재범 교수), KAIST 의과학대학원(김필한 교수), 충남대학교, 서울대학교, 하버드대학(Harvard University), 보스턴대학(Boston University), 앨런 연구소(Allen Institute), 웨스트레이크대학(Westlake University) 연구진들과 다국적, 다학제간 협력을 통해서 개발되었다. 
 
이번 연구는 한국연구재단의 지원을 받아 수행되었으며 국제 학술지 `네이처 메소드(Nature Methods)’에 9월 19일자로 온라인 게재되었으며 10월호 표지 논문으로 선정되었다. 
 

1특정 생체 신호의 변화에 비례하여 빛(형광)의 밝기가 변화

2대상을 일정 시간 간격으로 연속적으로 촬영한 영상
 
 
□ 그림 설명
AI영상분석기술 1

그림 1. SUPPORT 기술의 개념도: (a) 영상 내 각 픽셀별로 현재 프레임 내의 주변 픽셀 정보와 인접한 프레임 정보를 활용하여 인공신경망이 별도의 학습 데이터 없이 노이즈를 제거. (b) 설계된 인공신경망의 임펄스 응답.

 

2

그림 2. SUPPORT를 활용한 초정밀 신경세포 전압 측정: (상) 원 형광 이미지에서는 낮은 신호대잡음비로 인해 신경세포의 활동전위 관찰이 불가능. (하) SUPPORT를 이용해 신호대잡음비를 높이면, 각 신경세포의 활동전위를 정밀하게 관찰할 수 있음. 

 

 

3

그림 3. SUPPORT를 활용한 생쥐의 생체 귀 조직 형광 이미지 개선: (좌) 원 형광 이미지에서는 낮은 신호대잡음비로 인해 조직의 세부 구조 관찰이 불가능. (우) SUPPORT를 이용해 신호대잡음비를 높이면 세부 구조와 빠르게 이동하는 적혈구를 관찰할 수 있음.

 

 

5 1

그림 4. SUPPORT를 활용한 생쥐의 생체 근조직 형광 이미지 개선: (좌) 원 형광 이미지에서는 낮은 신호대잡음비로 인해 조직의 세부 구조 관찰이 불가능. (우) SUPPORT를 이용해 신호대잡음비를 높이면 근섬유의 세부 구조 및 빠르게 이동하는 적혈구를 관찰할 수 있음.

 

 

Jinyoung Park, Inyoung Lee, Minseok Son, Seungju Cho, and Changick Kim, “Nowformer : A locally enhanced temporal learner for precipitation nowcasting” in Proc. the 36th Annual Conference on Neural Information Processing Systems Workshop (NeurIPSW), New Orleans, USA, Nov. 27 – Dec. 6, 2022.

The precipitation video datasets have distinctive meteorological patterns where a mass of fluid moves in a particular direction across the entire frames, and each local area of the fluid has an individual life cycle from initiation to maturation to decay. This paper proposes a novel transformer-based model for precipitation nowcasting that can extract global and local dynamics within meteorological characteristics. The experimental results show our model achieves state-of-the-art performances on the precipitation nowcasting benchmark.

 

9

Jinyoung Park, Minseok Son, Seungju Cho, Inyoung Lee, and Changick Kim, “RainUNet for Super-Resolution Rain Movie Prediction under Spatio-temporal Shifts” in Proc. the 36th Annual Conference on Neural Information Processing Systems Workshop (NeurIPSW), New Orleans, USA, Nov. 27 – Dec. 6, 2022.

This paper presents a solution to the Weather4cast 2022 Challenge Stage 2. The goal of the challenge is to forecast future high-resolution rainfall events obtained from ground radar using low-resolution multiband satellite images. We suggest a solution that performs data preprocessing appropriate to the challenge and then predicts rainfall movies using a novel RainUNet. RainUNet is a hierarchical U-shaped network with temporal-wise separable block (TS block) using a decoupled large kernel 3D convolution to improve the prediction performance. Various evaluation metrics show that our solution is effective compared to the baseline method. The source codes are available at https://github.com/jinyxp/Weather4cast-2022.

 

8

Sumin Lee, Sangmin Woo, Yeonju Park, Muhammad Adi Nugroho, and Changick Kim, “Modality Mixer for Multi-modal Action Recognition,” in Proc. the IEEE/CVF Winter Conference on Applications of Computer Vision (WACV) 2023.

In multi-modal action recognition, it is important to consider not only the complementary nature of different modalities but also global action content. In this paper, we propose a novel network, named Modality Mixer (M-Mixer) network, to leverage complementary information across modalities and temporal context of an action for multi-modal action recognition. We also introduce a simple yet effective recurrent unit, called Multi-modal Contextualization Unit (MCU), which is a core component of M-Mixer. Our MCU temporally encodes a sequence of one modality (e.g., RGB) with action content features of other modalities (e.g., depth, IR). This process encourages M-Mixer to exploit global action content and also to supplement complementary information of other modalities. As a result, our proposed method outperforms state-of-the-art methods on NTU RGB+D 60, NTU RGB+D 120, and NW-UCLA datasets. Moreover, we demonstrate the effectiveness of M-Mixer by conducting comprehensive ablation studies.

 

7

Sangmin Woo, Sumin Lee, Yeonju Park, Muhammad Adi Nugroho, and Changick Kim, “Towards Good Practices for Missing Modality Robust Action Recognition” in Proc. the AAAI conference on artificial intelligence (AAAI) 2023

Standard multi-modal models assume the use of the same modalities in training and inference stages. However, in practice, the environment in which multi-modal models operate may not satisfy such assumption. As such, their performances degrade drastically if any modality is missing in the inference stage. We ask: how can we train a model that is robust to missing modalities? This paper seeks a set of good practices for multi-modal action recognition, with a particular interest in circumstances where some modalities are not available at an inference time. First, we study how to effectively regularize the model during training (e.g., data augmentation). Second, we investigate on fusion methods for robustness to missing modalities: we find that transformer-based fusion shows better robustness for missing modality than summation or concatenation. Third, we propose a simple modular network, ActionMAE, which learns missing modality predictive coding by randomly dropping modality features and tries to reconstruct them with the remaining modality features. Coupling these good practices, we build a model that is not only effective in multi-modal action recognition but also robust to modality missing. Our model achieves the state-of-the-arts on multiple benchmarks and maintains competitive performances even in missing modality scenarios.

 

6

Youngjun Kwak, M. Jung, H. Yoo, J. Shin, Changick Kim, “Liveness Score-Based Regression Neural Networks for Face Anti-Spoofing” Accepted to Proc. the IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP) 2023.

Previous anti-spoofing methods have used either pseudo maps or user-defined labels, and the performance of each approach depends on the accuracy of the third party networks generating pseudo maps and the way in which the users define the labels. In this paper, we propose a liveness score-based regression network for overcoming the dependency on third party networks and users. First, we introduce a new labeling technique, called pseudo-discretized label encoding for generating discretized labels indicating the amount of information related to real images. Secondly, we suggest the expected liveness score based on a regression network for training the difference between the proposed supervision and the expected liveness score. Finally, extensive experiments were conducted on four face anti-spoofing benchmarks to verify our proposed method on both intra-and cross-dataset tests. The experimental results show our approach outperforms previous methods.

 

5

Junyoung Byun, Myung-Joon Kwon, Seungju Cho, Yoonji Kim, and Changick Kim. “Introducing Competition to Boost the Transferability of Targeted Adversarial Examples through Clean Feature Mixup.” Accepted to IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). 2023

Deep neural networks are widely known to be susceptible to adversarial examples, which can cause incorrect predictions through subtle input modifications. These adversarial examples tend to be transferable between models, but targeted attacks still have lower attack success rates due to significant variations in decision boundaries. To enhance the transferability of targeted adversarial examples, we propose introducing competition into the optimization process. Our idea is to craft adversarial perturbations in the presence of two new types of competitor noises: adversarial perturbations towards different target classes and friendly perturbations towards the correct class. With these competitors, even if an adversarial example deceives a network to extract specific features leading to the target class, this disturbance can be suppressed by other competitors. Therefore, within this competition, adversarial examples should take different attack strategies by leveraging more diverse features to overwhelm their interference, leading to improving their transferability to different models. Considering the computational complexity, we efficiently simulate various interference from these two types of competitors in feature space by randomly mixing up stored clean features in the model inference and named this method Clean Feature Mixup (CFM). Our extensive experimental results on the ImageNet-Compatible and CIFAR-10 datasets show that the proposed method outperforms the existing baselines with a clear margin. Our code is available at https://github.com/dreamflake/CFM.

 

4

Sumin Lee, Hyunjun Eun, J. Moon, Seokeon Choi, Yoonhyung Kim, Chanho Jung, and Changick Kim, “Learning to Discriminate Information for Online Action Detection: Analysis and Application”, IEEE Transaction of Pattern Analysis and Machine Intelligence (TPAMI) (2022).

Online action detection, which aims to identify an ongoing action from a streaming video, is an important subject in real-world applications. For this task, previous methods use recurrent neural networks for modeling temporal relations in an input sequence. However, these methods overlook the fact that the input image sequence includes not only the action of interest but background and irrelevant actions. This would induce recurrent units to accumulate unnecessary information for encoding features on the action of interest. To overcome this problem, we propose a novel recurrent unit, named Information Discrimination Unit (IDU), which explicitly discriminates the information relevancy between an ongoing action and others to decide whether to accumulate the input information. This enables learning more discriminative representations for identifying an ongoing action. In this paper, we further present a new recurrent unit, called Information Integration Unit (IIU), for action anticipation. Our IIU exploits the outputs from IDN as pseudo action labels as well as RGB frames to learn enriched features of observed actions effectively. In experiments on TVSeries and THUMOS-14, the proposed methods outperform state-of-the-art methods by a significant margin in online action detection and action anticipation. Moreover, we demonstrate the effectiveness of the proposed units by conducting comprehensive ablation studies.

2 1 3

Inyong Koo, Yeonju Park, Minki Jeong, and Changick Kim, “Contrastive Accelerometer-Gyroscope Embedding Model for Human Activity Recognition”, IEEE Sensors Journal 23.1 (2022): 506-513.

Recently, the widespread use of smart devices has invoked more interest in sensor-based applications. Human activity recognition (HAR) with body-worn sensors is an underlying task that aims to recognize a person’s physical activity from on-body sensor readings. In this article, we address the HAR problem that utilizes accelerometers and gyroscopes. While deep-learning-based feature extraction methods are advancing, recent HAR systems with multimodal sensors mostly use data-level fusion, aggregating different sensor signals into one multichannel input. However, they neglect the fact that different sensors capture different physical properties and produce distinct patterns. In this article, we propose a two-stream convolutional neural network (CNN) model that processes the accelerometer and gyroscope signals separately. The modality-specific features are fused in feature-level and jointly used for the recognition task. Furthermore, we introduce a self-supervised learning (SSL) task that pairs the accelerometer and the gyroscope embeddings acquired from the same activity instance. This auxiliary objective allows the feature extractors of our model to communicate during training and exploit complementary information, achieving better representations for HAR. We name our end-to-end multimodal HAR system the Contrastive Accelerometer–Gyroscope Embedding (CAGE) model. CAGE outperforms preceding HAR models in four publicly available benchmarks. The code is available at github.com/quotation2520/CAGE4HAR.

Recently, the widespread use of smart devices has invoked more interest in sensor-based applications. Human activity recognition (HAR) with body-worn sensors is an underlying task that aims to recognize a person’s physical activity from on-body sensor readings. In this article, we address the HAR problem that utilizes accelerometers and gyroscopes. While deep-learning-based feature extraction methods are advancing, recent HAR systems with multimodal sensors mostly use data-level fusion, aggregating different sensor signals into one multichannel input. However, they neglect the fact that different sensors capture different physical properties and produce distinct patterns. In this article, we propose a two-stream convolutional neural network (CNN) model that processes the accelerometer and gyroscope signals separately. The modality-specific features are fused in feature-level and jointly used for the recognition task. Furthermore, we introduce a self-supervised learning (SSL) task that pairs the accelerometer and the gyroscope embeddings acquired from the same activity instance. This auxiliary objective allows the feature extractors of our model to communicate during training and exploit complementary information, achieving better representations for HAR. We name our end-to-end multimodal HAR system the Contrastive Accelerometer–Gyroscope Embedding (CAGE) model. CAGE outperforms preceding HAR models in four publicly available benchmarks. The code is available at github.com/quotation2520/CAGE4HAR.

 

1 1

명현 교수 연구팀, 안 보고도 계단을 성큼성큼 걷는 ‘드림워커’ 기술 개발

1. 연구팀이 개발한 제어기 드림워크의 개요도
 
 
– 시각 및 촉각 정보 없이 비정형 환경 보행이 가능한 인공지능 심층 강화학습 기반 보행 로봇 제어기술 ‘드림워크’ 개발
– ‘드림워크’ 기술을 활용하여 다양한 형태의 사족보행 ‘드림워커’ 로봇 양산 가능
– 화재와 같은 재난으로 인한 비정형 환경 탐사 임무 수행 등에 활용 기대
 
연기가 자욱해 앞이 안 보이는 재난 상황에서 별도의 시각이나 촉각 센서의 도움 없이 계단을 오르내리고 나무뿌리와 같은 울퉁불퉁한 환경 등에서 넘어지지 않고 움직이는 사족보행 로봇 기술이 국내 연구진에 의해 개발됐다.
 
전기및전자공학부 명현 교수 연구팀(미래도시 로봇연구실)이 다양한 비정형 환경에서도 강인한 `블라인드 보행(blind locomotion)’을 가능케 하는 보행 로봇 제어 기술을 개발했다.
 
연구팀은 사람이 수면 중 깨어서 깜깜한 상태에서 화장실을 갈 때 시각적인 도움이 거의 없이 보행이 가능한 것처럼, 블라인드 보행이 가능하다고 해서 붙여진 ‘드림워크(DreamWaQ)’기술을 개발하였고 이 기술이 적용된 로봇을 ‘드림워커(DreamWaQer)’라고 명명했다.
즉 이 기술을 탑재하면 다양한 형태의 사족보행 로봇 드림워커를 만들어낼 수 있게 되는 것이다.
 
드림워커(DreamWaQer) 로봇은 실험실 환경뿐 아니라, 연석과 과속방지턱이 많은 대학 캠퍼스 환경, 나무뿌리와 자갈이 많은 야지 환경 등에서 보행 시 지면으로부터 몸체까지 높이의 3분의 2 (2/3) 정도의 계단 등을 극복함으로써 강인한 성능을 입증했다.
 
또한 환경과 무관하게, 0.3m/s의 느린 속도부터 1.0m/s의 다소 빠른 속도까지도 안정적인 보행이 가능함을 연구팀은 확인했다.  
 
이번 연구 결과는 이 마데 아스윈 나렌드라(I Made Aswin Nahrendra) 박사과정이 제1 저자로, 유병호 박사과정이 공동 저자로 참여했으며, 오는 5월 말 영국 런던에서 개최되는 로보틱스 분야의 세계 최고 권위 학회인 ICRA(IEEE International Conference on Robotics and Automation)에 채택되어 발표될 예정이다. (논문명: DreamWaQ: Learning Robust Quadrupedal Locomotion With Implicit Terrain Imagination via Deep Reinforcement Learning)
 
개발된 드림워크를 탑재한 보행 로봇 드림워커의 구동 및 보행 영상은 아래 주소에서 확인할 수 있다.

 

-메인 영상: https://youtu.be/JC1_bnTxPiQ 

-쿠키 영상: https://youtu.be/mhUUZVbeDA0 

 

1. 왼쪽부터 전기및전자공학부 명현 교수 이 마데 아스윈 나렌드라I Made Aswin Nahrendra 박사과정 유병

(왼쪽부터) 명현 교수, 이 마데 아스윈 나렌드라(I Made Aswin Nahrendra) 박사과정, 유병호 박사과정, 오민호 박사과정. 맨 앞에는 드림워크 기술이 탑재된 사족보행 로봇 드림워커.
 
 
[언론보도]
전자신문 : KAIST 보행로봇, 앞이 안보여도 계단 오르고 걷는다 – 전자신문 (etnews.com) 
헤럴드경제 : “보이지 않는데도 높은 계단 척척…카이스트, 新로봇제어 기술 개발”- 헤럴드경제 (heraldcorp.com)