KDST

KDST는 딥러닝을 중심으로 AI와 데이터에 관련된 여러 주제에 대해서 연구하는 팀입니다.

분류 전체보기 106

LAST LAYER RE-TRAINING IS SUFFICIENT FOR ROBUSTNESS TO SPURIOUS CORRELATIONS (ICLR2023)

안녕하세요, KDST팀 김동진입니다. 오늘 소개해드릴 논문은 “LAST LAYER RE-TRAINING IS SUFFICIENT FOR ROBUSTNESS TO SPURIOUS CORRELATIONS“로 ICLR2023에 Spotlight로 선정되었습니다. 주요 내용은 아래와 같습니다. 본 논문은 딥러닝 모델이 학습하기 쉬운 spurious correlation을 기반으로 class label 예측을 하더라도 label과 관련된 core feature가 feature extractor에서 추출되는 것을 다양한 비율의 spurious correlation이 존재하는 데이터셋들에서 실험을 통해 보였습니다. 또한, 저자들은 feature extractor가 core feature를 추출하더라도 모델이 clas..

카테고리 없음 2023.09.01

One paper accepted at ICCV 2023

올해 10월에 파리에서 열리는 ICCV 2023에 아래 논문이 채택되었습니다. 이미지 생성 모델의 품질을 측정하는 향상된 metric(precision & recall)을 제안하는 논문입니다. 기존의 improved precision & recall 보다는 확실히 더 나아졌다고 말씀드릴 수 있으니 관련 연구 하시는 분들은 한번 사용해 보시길 추천드립니다. Probabilistic Precision and Recall Towards Reliable Evaluation of Generative Models

카테고리 없음 2023.08.01

Teaching Where to Look : Attention Similarity Knowledge Distillation for Low Resolution Face Recognition(ECCV 2022)

안녕하세요, 학부연구생 박윤아입니다. 지난 4월에 처음으로 논문 리뷰 발표를 했었는데, 오늘 7월 21일 두번째 발표를 하게 되었습니다. 이 논문의 핵심 아이디어는, Attention Similarity Knowledge Distillation (A-SKD)로 Teacher model의 attention map을 student model로 전달하여, 저해상도 이미지에서도 얼굴인식 성능을 내도록 하는것 입니다. attention map을 distillation할 때 '고해상도 모델의 channel과 저해상도 모델의 channel의 역할(혹은 파라미터)가 다를텐데, attention map을 바로 전달해도 되는건지' 에 대해 질문하셨는데, 답하지 못했습니다. 논문에서 CBAM attention module을..

카테고리 없음 2023.07.21

CMT: Convolutional Neural Networks Meet Vision Transformer(CVPR 2022)

안녕하세요, KDST팀 학부연구생 이원준입니다. 2023년 6월 30일에 진행하였던 논문 세미나 내용 간단하게 전달드리겠습니다. 본 논문에서 제안하는 내용은 다음과 같습니다. 저자는 vision transformer가 image task에서 이미지를 확인하는 long-range dependency로 인해 성공적으로 적용되고 있다고 말합니다. 하지만 논문에서 기존의 cnn과 vision transformer 사이의 성능과 computational cost 사이의 gap이 존재하는데 이러한 서로간의 장단점을 극복하기 위해 CMT라는 새로운 아키텍쳐를 제안합니다 Vision transformer의 long-range dependency 뿐만 아니라, CNN의 Local Feature의 장점을 활용한 하이브리드..

카테고리 없음 2023.07.21

Rootless 공용 딥러닝 연구 환경을 위한 Singularity 컨테이너 도입

Motivation GPU 클러스터를 팀에서 공용으로 사용하는 경우 사용자간 환경 분리와 유저 권한에 대한 관리가 필요하다. 이러한 환경에서는 서로 모순되는 요구사항이 존재한다. 누구든 실수로 문제를 발생시킬 수 있기 때문에 모두에게 sudo 권한을 주는 것은 지양되어야 한다. 연구 환경 세팅을 위해 apt 같은 sudo를 요구하는 패키지 관리 툴을 사용할 수 있어야한다. 프로젝트에 따라 고립된 환경의 구축을 할 수 있어야한다. Current situation 이러한 요구사항을 고려하기 위해 KDST에서는 그동안 Docker를 사용해왔다. 서버의 sudo group 대신 docker group에 사용자를 추가함으로써, 각각 연구자가 docker container 내부에서 자유롭게 환경을 세팅하고 연구를 ..

카테고리 없음 2023.03.14

MetaSparse-INR, NeurIPS, 2021 포스팅

안녕하세요. 박민철입니다. 2023년 1월 13일 진행했던 논문세미나 내용에 대해 간단하게 요약해보도록 하겠습니다. 인공신경망의 활용을 2D나 3D 영상에 대해 표현할 수 있는 형태로 학습하는 implicit representation 기술들이 활발하게 연구되고 있습니다. 하지만 도메인 내의 여러 인스턴스에 대해 개별적으로 representation을 만들어야 하는 문제때문에, 전체 학습 시간에 대한 이슈, 그리고 메모리 및 저장 공간에 대한 이슈가 존재합니다. 이에 따라, KAIST에서 수행한 Meta-Learning Sparse Implicit Neural Representations라는 NeurIPS 2021에 게재된 논문은 프루닝을 이용하여, 전체 모델 사이즈를 감소시키는 한편, meta lear..

카테고리 없음 2023.01.30

Representational Continuity For Unsupervised Continual Learning(ICLR 2022)

안녕하세요. KDST팀 학부연구생 박태주입니다. 12월 9일 진행했던 논문세미나 내용에 대해 간단하게 요약해보도록 하겠습니다. continual learning(CL)은 sequence of tasks를 학습하면서도 previous tasks에서 배운 내용들을 까먹지 않는 것을 목표로합니다. 하지만 기존 연구들은 supervised task에 국한되어 있어, 이 논문에서는 continual learning을 unsupervised representation learning에 접목시킵니다. Unsupervised representation learning을 위해서는 "SimSiam"과 "BarlowTwins" loss term을 사용했습니다. 그리고 continual learning에 적용하기 위해서 SI..

카테고리 없음 2022.12.16