KDST

KDST는 딥러닝을 중심으로 AI와 데이터에 관련된 여러 주제에 대해서 연구하는 팀입니다.

전체 글 104

Curvature Tuning: Provable Training-free Model Steering From a Single Parameter

안녕하세요. KDST 한용진입니다. 이번 시간에는 2025년도 NeurIPS에서 소개된 논문에 대해 이야기를 나눠보고자 합니다. 데이터의 양과 모델의 크기가 증가함에 따라서 이제는 사전학습된 모델을 불러와 특정 작업에 맞춰 모델을 가볍게 수정하는 미세조정(fine-tuning) 방법이 표준으로 자리매김하고 있습니다. 현재까지 Low-Rank Adaptation(LoRA)와 같은 학습 가능한 파라미터의 수를 줄이는 다양한 방법들이 제안되어 왔는데 이는 모델의 가중치를 수정하는 방법입니다. 이와 반대로 본 논문에서 저자들은 활성화 함수를 수정하는 것에 눈을 돌렸습니다. 비선형 활성화 함수는 신경망의 표현력을 담당하는 실질적인 요소라고 봐도 무방합니다. 본 논문에서는 ReLU 활성화 함수를 새로운 활성화 함수..

오픈랩 워크샵 성황리에 마무리

많은 분들이 와주셔서 오픈랩 워크샵이 성황리에 마무리되었습니다. 자리가 모자라서 뒤편에 의자를 추가로 놓고도 자리가 부족해서 돌아가신 분들이 계셨습니다. 내년에는 더 큰 장소에서 진행하고 피자도 더 많이 준비하도록 하겠습니다. 참석하신 모든 분들에게 감사드리며 워크샵을 준비하신 저희 팀원들에게 특히 더 고맙다는 말씀을 드리고 싶습니다.

카테고리 없음 2025.11.18

Two Papers Accepted as Spotlight at NeurIPS 2025

12월에 San Diego에서 열리는 NeurIPS 2025에 다음 2편의 논문을 spotlight로 발표하게 되었습니다. "Rethinking Entropy in Test-Time Adaptation: The Missing Piece from Energy Duality" "Shortcut Features as Top Eigenfunctions of NTK: A Linear Neural Network Case and More" 이것으로 2025년은 마무리까지 아주 성공적인 한 해가 되었습니다. 올 한해 저희 KDST 팀은 IF 20.8인 TPAMI와 IF 7.2인 Knowledge-Based Systems에 SCIE 저널 논문을 실었을 뿐 아니라 총 11편의 AI top conference 학회 논문(..

카테고리 없음 2025.09.20

Seeking Consistent Flat Minima for Better Domain Generalization via Refining Loss Landscapes

안녕하세요 KDST 한용진입니다. 이번 논문 세미나에서 소개해드린 논문, "Seeking Consistent Flat Minima for Better Domain Generalization via Refining Loss Landscapes"을 살펴보고자 합니다. 논문 제목을 통해 유추할 수 있듯이 loss landscape를 조정해 가며 Domain Generalization을 위해 consistent flat minima를 찾는 방법을 제안하는 논문입니다. SummaryDomain Generalization을 위해서 여러 연구들이 flat minima를 효율적으로 찾는 방법을 제안해오고 있습니다. 그러나 기존 방법들은 서로 다른 도메인 간의 consistency를 고려하지 않는다는 문제점이 존재합니다..

카테고리 없음 2025.07.19

Robustness Reprogramming for Representation Learning

안녕하세요 KDST 한용진입니다. 이번 세미나에서는 2025년도 ICLR에서 발표된 "Robustness Reprogramming for Representation Learning"이란 논문을 발표하였습니다. 논문에 대해 간략하게 먼저 설명을 해보자면, 본 논문에서는 feature의 패턴 매칭 관점에서 신경망 모델의 취약점을 살펴보고 이를 해결하기 위해 비선형 패턴 매칭 방법을 제안합니다. 비선형 패턴 매칭을 통해 유도된 아키텍처로 변환하는 것만으로도 모델의 robustness가 향상됨을 보입니다. Robustness 향상을 위해 고비용의 적대적 학습을 하였던 기존 방법을 벗어나 representation learning 관점으로 재해석하여 추가적인 학습 없이도 robustness를 향상할 수 있음을 보..

카테고리 없음 2025.06.04