KDST

KDST는 딥러닝을 중심으로 AI와 데이터에 관련된 여러 주제에 대해서 연구하는 팀입니다.

전체 글 106

One Paper Accepted at ICLR 2026

4월에 브라질에서 열리는 ICLR 2026에 다음 1편의 논문을 발표하게 되었습니다. 최초로 T2V 모델에 특화된 탈옥 기법을 제안한 점이 인정받은 것 같습니다. 점점 더 활용이 늘어날 T2V 모델의 safety에 대한 연구의 시작점으로서의 의의가 크다고 생각합니다. 더 자세한 내용은 공저자로 참여한 박하언 님의 아래 링크의 글을 참조하시기 바랍니다. "Jailbreaking on Text-to-Video Models via Scene Splitting Strategy" https://www.linkedin.com/posts/haonpark_we-jailbroke-google-veo2-luma-ray2-activity-7391746063684202496--yvh/?utm_source=share&utm_m..

카테고리 없음 2026.01.26

2026년 대한전자공학회 영상이해/ 영상처리 연구회 합동겨울학교 초청 강의

지난 1월 13일(화)~15일(목)에 소노캄 비발디파크에서 열린 2026년 대한전자공학회 영상이해/ 영상처리 연구회 합동겨울학교에서 파라미터 효율적 미세 조정(PEFT)에 대한 초청 강의를 진행하였습니다. 최근에는 워낙 큰 모델이 많이 나와서 실제로도 많이 활용되는 기술이면서 연구도 활발히 진행되고 있는 분야입니다. 자원이 제한된 대학 연구실에서 특히 활용도가 높아서 많이들 관심 갖고 들어주셔서 감사했습니다.

카테고리 없음 2026.01.26

Curvature Tuning: Provable Training-free Model Steering From a Single Parameter

안녕하세요. KDST 한용진입니다. 이번 시간에는 2025년도 NeurIPS에서 소개된 논문에 대해 이야기를 나눠보고자 합니다. 데이터의 양과 모델의 크기가 증가함에 따라서 이제는 사전학습된 모델을 불러와 특정 작업에 맞춰 모델을 가볍게 수정하는 미세조정(fine-tuning) 방법이 표준으로 자리매김하고 있습니다. 현재까지 Low-Rank Adaptation(LoRA)와 같은 학습 가능한 파라미터의 수를 줄이는 다양한 방법들이 제안되어 왔는데 이는 모델의 가중치를 수정하는 방법입니다. 이와 반대로 본 논문에서 저자들은 활성화 함수를 수정하는 것에 눈을 돌렸습니다. 비선형 활성화 함수는 신경망의 표현력을 담당하는 실질적인 요소라고 봐도 무방합니다. 본 논문에서는 ReLU 활성화 함수를 새로운 활성화 함수..

카테고리 없음 2026.01.11

오픈랩 워크샵 성황리에 마무리

많은 분들이 와주셔서 오픈랩 워크샵이 성황리에 마무리되었습니다. 자리가 모자라서 뒤편에 의자를 추가로 놓고도 자리가 부족해서 돌아가신 분들이 계셨습니다. 내년에는 더 큰 장소에서 진행하고 피자도 더 많이 준비하도록 하겠습니다. 참석하신 모든 분들에게 감사드리며 워크샵을 준비하신 저희 팀원들에게 특히 더 고맙다는 말씀을 드리고 싶습니다.

카테고리 없음 2025.11.18

Two Papers Accepted as Spotlight at NeurIPS 2025

12월에 San Diego에서 열리는 NeurIPS 2025에 다음 2편의 논문을 spotlight로 발표하게 되었습니다. "Rethinking Entropy in Test-Time Adaptation: The Missing Piece from Energy Duality" "Shortcut Features as Top Eigenfunctions of NTK: A Linear Neural Network Case and More" 이것으로 2025년은 마무리까지 아주 성공적인 한 해가 되었습니다. 올 한해 저희 KDST 팀은 IF 20.8인 TPAMI와 IF 7.2인 Knowledge-Based Systems에 SCIE 저널 논문을 실었을 뿐 아니라 총 11편의 AI top conference 학회 논문(..

카테고리 없음 2025.09.20