KDST

KDST는 딥러닝을 중심으로 AI와 데이터에 관련된 여러 주제에 대해서 연구하는 팀입니다.

2023/07/21 2

Teaching Where to Look : Attention Similarity Knowledge Distillation for Low Resolution Face Recognition(ECCV 2022)

안녕하세요, 학부연구생 박윤아입니다. 지난 4월에 처음으로 논문 리뷰 발표를 했었는데, 오늘 7월 21일 두번째 발표를 하게 되었습니다. 이 논문의 핵심 아이디어는, Attention Similarity Knowledge Distillation (A-SKD)로 Teacher model의 attention map을 student model로 전달하여, 저해상도 이미지에서도 얼굴인식 성능을 내도록 하는것 입니다. attention map을 distillation할 때 '고해상도 모델의 channel과 저해상도 모델의 channel의 역할(혹은 파라미터)가 다를텐데, attention map을 바로 전달해도 되는건지' 에 대해 질문하셨는데, 답하지 못했습니다. 논문에서 CBAM attention module을..

카테고리 없음 2023.07.21

CMT: Convolutional Neural Networks Meet Vision Transformer(CVPR 2022)

안녕하세요, KDST팀 학부연구생 이원준입니다. 2023년 6월 30일에 진행하였던 논문 세미나 내용 간단하게 전달드리겠습니다. 본 논문에서 제안하는 내용은 다음과 같습니다. 저자는 vision transformer가 image task에서 이미지를 확인하는 long-range dependency로 인해 성공적으로 적용되고 있다고 말합니다. 하지만 논문에서 기존의 cnn과 vision transformer 사이의 성능과 computational cost 사이의 gap이 존재하는데 이러한 서로간의 장단점을 극복하기 위해 CMT라는 새로운 아키텍쳐를 제안합니다 Vision transformer의 long-range dependency 뿐만 아니라, CNN의 Local Feature의 장점을 활용한 하이브리드..

카테고리 없음 2023.07.21