network compiling 간단하게
1. motivation 학습이 완료된 network를 deploy하려는 target hardware에 inference가 가능하도록 compile하는 작업 최적화 기법도 동반되어 사실상 속도에 가장 큰 영향을 미치는 작업 그러나 가장 복잡하면서 내용이 상당히 어려움 유명 제조사들에서 compile library를 제공함 NVIDIA의 TensorRT는 NVIDIA GPU에 최적화시켜 compile을 수행 Tensorflow의 Tflite는 여러 embedded device에 성능을 보장해줌 apache의 TVM은 Tflite와 비슷한 기능들을 제공? 2. 문제점 compile library마다, 적용하는 모델마다 성능에 차이가 있음 기본적으로 compile을 수행하면 inference 속도..