KDST

KDST는 딥러닝을 중심으로 AI와 데이터에 관련된 여러 주제에 대해서 연구하는 팀입니다.

분류 전체보기 106

3D Gaussian Splatting for Real-Time Radiance Field Rendering (SIGGRAPH 2023)

안녕하세요. KDST팀 김현수 입니다. 제가 이번에 소개드릴 논문은 최근 3D Reconstruction, 3D Rendering 분야에서 NeRF를 제치고, 메인 아키텍쳐로 자리잡은 3D Gaussian Splatting 입니다.arxiv : https://arxiv.org/abs/2308.04079github : https://github.com/graphdeco-inria/gaussian-splatting 기존에 3D reconstruction 분야에서는 NeRF, Mip-NeRF, Mip-NeRF 360 등 NeRF 기반의 방법론들이 많이 연구되어 왔습니다. 그러나 NeRF의 가장 큰 단점은 시간이 오래 걸린다는 것이고, 이는 real-time rendering 등을 수행하기에 적합하지 않습니다...

카테고리 없음 2024.07.08

Image Editing using Guided Diffusion Models

안녕하세요. KDST팀 김유진입니다. 6월 14일에 진행했던 Image Editing에 대한 세미나 내용을 간략하게 요약해보도록 하겠습니다. 이번에 소개해 드릴 논문은 Text-to-Image model 기반의 Image editing 연구로 유명한 "Prompt-to-prompt image editing with cross-attention control", "Plug-and-Play Diffusion Features for Text-Driven Image-to-Image Translation" 입니다.Diffusion model기반의 Image editing을 수행하기 위한 방법론은 크게 3가지로 나눌 수 있습니다. Training-based: 모든 아키텍처를 training하여 target data..

카테고리 없음 2024.07.08

Toolformer: Language Models Can Teach Themselves to Use Tools(NeurIPS 2023 Oral)

안녕하세요, KDST팀 이원준입니다.진행하였던 논문 세미나 내용 간단하게 전달드리겠습니다. 본 논문의 Contribution은 다음과 같습니다LM이 스스로 external tool을 쓰도록 학습할 수 있게 한다.언제, 어떻게, 어떤 API를 사용할지 스스로 결정할 수 있도록 한다.Self-supervised 방법을 통해 다양한 tool들의 적절한 사용 방법 학습하도록 한다.논문에서 지적하는 기존의 LLM들의 몇가지 한계들은 다음과 같습니다.날짜 기반에 대한 최신 정보에 액세스할 수 없음Hallucination비교적 학습이 덜 된 언어에 대한 어려움정확한 수학적 계산을 수행할 수 있는 수학적 기술의 부족현재 시간에 대한 부족한 이해이러한 한계들을 극복하기 위해 가장 간단한 방법은 검색 엔진, 계산기 또는 ..

카테고리 없음 2024.07.07

Text Embeddings Reveal (Almost) As Much As Text (EMNLP 2023)

안녕하세요. KDST팀에서 학점연계 현장실습 인턴을 하고 있는 성균관대학교 데이터사이언스융합전공 김지환입니다. 제가 이번에 소개드릴 논문은 이번 EMNLP 2023에 억셉된 논문인 'Text Embeddings Reveal (Almost) As Much As Text'입니다. 논문 링크(arxiv): Text Embeddings Reveal (Almost) As Much As Text github 링크: https://github.com/jxmorris12/vec2text 이 논문에서는 기존에는 잘 되지 않았던, text를 embedding한 vector로부터 원본 텍스트로 복원하는 embedding inversion problem을 다루고 있습니다. 본 논문에서는 이 문제를 통제된 생성; 즉 잠재 공간..

카테고리 없음 2024.01.04

Feature Separation and Recalibration for Adversarial Robustness (CVPR 2023 Highlight)

안녕하세요 KDST 학부연구생 구미진입니다. 오늘 소개해드릴 논문은 CVPR 2023 Highlight 논문인 Feature Separation and Recalibration for Adversarial Robustness 입니다. 본 논문에서는 적대적 공격에 대한 방어 방법 중 Adversarial Training 방법과 결합해서 사용할 수 있는 FSR 모듈을 제안했습니다. Motivation 딥러닝 모델은 위 그림처럼 이미지의 Feature representation을 학습하여 의사 결정을 내립니다. 적대적 공격은 이미지에 미세한 노이즈를 추가하여 모델의 오분류를 유도하는데, 기존의 방어 방법은 변화가 생긴 활성화를 그냥 무시함으로써 공격에 대응하고자 했습니다. 그러나 이 방법은 중요한 정보의 손실..

카테고리 없음 2023.11.29

One paper accepted at NeurIPS 2023

올해 12월에 뉴올리언스에서 열리는 NeurIPS 2023에 아래 논문이 채택되었습니다. 이 논문은 딥러닝 초기에 중요한 역할을 했던 tanh 활성화 함수가 왜 ReLU 등 그 이후의 활성화 함수에 비해서 상대적으로 성능이 좋지 않은지 그 이유를 분석합니다. 또한, 그 단점들을 극복하고, ReLU 활성화 함수와 비슷한 성능을 달성하는 방법을 제시합니다. 결론적으로 활성화 함수의 비대칭성이 얼마나 중요한지를 보여주며, 이를 통해 활성화 함수에 대한 이해를 깊게 하고 있습니다. "Tanh Works Better with Asymmetry"

카테고리 없음 2023.11.26

What Can Transformers Learn In-Context? A Case Study of Simple Function Classes (NeurIPS 2022)

안녕하세요, KDST팀 김동진입니다. 오늘 소개해드릴 논문은 “What Can Transformers Learn In-Context? A Case Study of Simple Function Classes “로 NeurIPS2022에서 좋은 평가를 받은 논문입니다. GPT-3 모델의 등장으로 번역과 같은 다양한 downstream task에서 Zero-shot 또는 few-shot으로도 준수한 성능을 낼 수 있게 되었습니다. 이러한 발전으로 prompt engineering에 관한 관심 또한 높아졌으며, 이번 논문은 prompt engineering의 방식 중 하나인 in-context learning에 관한 내용입니다. (In-context learing이란 모델의 weight가 update가 되지 않..

카테고리 없음 2023.10.08

Segment Anything (arxiv 2023)

안녕하세요, KDST 팀 강민수입니다. 오늘 소개해드릴 논문은 "Segment Anything," 이고 Meta AI에서 공개한 논문입니다. Segment anything은 모델과 데이터셋을 제안한 논문으로 foundation 모델을 지향하는 논문입니다. NLP에서는 prompt engineering으로 이를 달성할 수 있었고, web-scale dataset이 있었기에 가능했습니다. 하지만, vision field에서는 이것이 매우 어렵습니다. CLIP이나 ALIGN도 language-vision model을 통해서 비슷하게 가능하게 했지만, foundation모델로 인정받지 못하는 것이 그것입니다. 본 논문의 목표는 segmentation task에서 foundation model을 만드는 것으로 3..

카테고리 없음 2023.09.30

Energy-based Out-of-distribution Detection(NeurIPS 2020)

안녕하세요. KDST에서 현장실습을 하고 있는 성균관대학교 데이터사이언스융합전공 김지환이라고 합니다. 제가 오늘 소개드릴 논문은 2020년 NeurIPS에 나온 논문으로, OOD 탐지할 때 사용할 수 있는 score로 Energy score를 제시합니다. 기존에 사용하였던 softmax score의 단점인 overconfidence를 줄일 수 있는 차별화된 방법이라고 저자들은 주장합니다. NeurIPS 버전과 아카이브 버전이 달라서 두 버전 모두 링크를 달아두겠습니다. [NeurIPS 버전] https://proceedings.neurips.cc/paper/2020/file/f5496252609c43eb8a3d147ab9b9c006-Paper.pdf [아카이브 버전] https://arxiv.org/pd..

카테고리 없음 2023.09.27