KDST
|
total
today
yesterday
홈
태그
방명록
팀 소개
카테고리
분류 전체보기
티스토리가입하기
Search
'Knowledge%20Distillation'에 해당되는 글 0건
KDST(KIST Data Science Team)는 기계학습을 포함한 데이터와 지능에 관련된 여러 주제에 대해서 연구하는 팀입니다.
KDST
tag cloud
Neural network inversion
NaturalInversion
Multi-Task Learning
AAAI 2021
gan
DQN
Manifold Regularized Dynamic Network Pruning
Singulairty
bearing fault detection
ICCV
pruning
AdaptiveDeepInversion
anomaly detection
autoencoder
CVPR 2021
AdaShare
Dynamic Pruning
강화학습
cnn
MLP-Mixer
Data-Free Image Synthesis
2022AAAI
Reinforcement Learning
Neural Architecture Search
bearing fault diagnosis
DegAug
neuron merging
Knowledge Distillation
2022-AAAI
Out of Distribution
공지사항
최근댓글
최근기사
글보관함
링크
2024
4
«
»
«
2024/4
»
일
월
화
수
목
금
토
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
티스토리툴바