안녕하세요, KDST팀 이원준입니다.금일 진행한 세미나에 대해서 공유드리도록 하겠습니다. CVPR 2024에서 Oral + Best Student Paper runner-up을 받은 논문입니다. 논문에서 지적하는 포인트는 아래와 같습니다.Transformer와 CNN의 근본적으로 어떤 차이로 인해 달라지는가?흔히 Transformer의 장점 중 하나인 self-attention이 그러한 원인이라면, attention이 없음에도 더 좋은 성능을 보이는 ConvNeXt 모델은 무엇인가?attention이 원인이 아니라면, 내부 아키텍쳐가 원인인가?그렇다면, 내부 아키텍쳐의 어떤 부분이 원인인가?본 논문에서는 이러한 차이를 밝히기 위해, 아래와 같은 Method를 제안합니다.Sub-explanation co..