hinton의 knowledge distillation이후에 발명된 knowledge distillation들 알아보기
1. introduction 기본적으로 알고있는 hinton의 최초 distillation이 baseline knowledge distillation teacher를 여러명 두겠다는 ensemble of teacher triplet network를 이용한 distillation 조교 선생님도 두겠다는 teacher assistant knowledge distillation logit이 classification에서만 사용된다는 태생적인 한계 때문에 logit 말고도 다른 것에서도 지식을 배울 수 있다면? classification 문제 말고도 분명 다른 문제에서도 지식이라는 것이 있을 것임 그래서 예를 들어 최종 layer 말고 중간 layer에서 knowledge를 뽑는 feature di..