Loading...
2022. 11. 1. 23:18

머신러닝 관점에서 entropy 개념 알아보기

1. entropy를 줄이는 방법 무질서도를 측정하는 측도로 무작위할수록 높은 값을 갖는다. 색이 맞은 완전한 큐브는 단 1가지의 경우의 수(state)를 가지지만 색이 흐트러져 뒤섞인 큐브는 무수히 많은 경우의 수(state)를 가진다. 열역학 제 2법칙은 닫힌 공간에서 엔트로피는 항상 증가하는 방향으로 흐른다는 것이다. 시간이 과거에서 미래로 흐르는 것도 미래가 과거보다 무작위하다는 것을 생각하면 자연스럽다 그러나 공간에 에너지를 투입하는 경우 global하게 닫힌 공간으로 확장하면 엔트로피는 증가하지만 에너지를 투입한 local한 부분에서는 엔트로피를 감소시킬 수 있다 멋진 말로는 부분 공간에서는 시간을 잠깐 거슬러 올라갈 수 있다는것? 색이 흐트러져 뒤섞인 큐브는 무작위로 뒤섞여 엔트로피가 높은 ..

2022. 10. 31. 16:21

공간(space)과 시간복잡도(time) 사이 관계

1. problem space 어떤 문제가 정의되는 공간 문제에서 이 공간 밖에서는 어떠한 것도 생각하지 않겠다 1-1) example 어떤 game의 finite state space 현재 상태에서 어떤 변화가 주어지면 다음 상태로 이동하는 space 동그라미 2개 있는 곳이 final state game의 player는 아래와 같이 정의된 problem space내의 상태 변화만 가능하다 input으로 플레이어?가 주어지면 patrol을 하면서 순찰을 함 player approach로 어떤 player가 접근하면? attack 상태로 변화 attack 상태에서 player가 도망가면? 다시 patrol 상태로 변화 patrol중에 체력이 없어 no health면? deceased로 사망 상태로 변화 ..

2022. 4. 5. 23:38

MNasNet과 PROXYLESSNAS와 ONCE-FOR-ALL network 알아보기

1. MnasNet search space에 여러 후보 setting architecture를 올려두고 controller가 sampling을 통해 선택 trainer가 sample로 선택된 architecture를 가진 모델을 훈련해서 accuracy를 평가 그 다음에 mobile phone에 직접 넣어서 latency를 측정해봄 accuracy와 latency를 통하여 ‘multi-objective reward’라는 것을 계산하여 이를 바탕으로 다음 model을 선택 이전까지는 mobile phone에 넣어본 것이 아니고 그냥 감으로 좋을 것이다라고 생각하여 compression을 해왔지만 mobile phone에 사용할 거니까 당연히 mobile phone에 넣어서 실험을 해봐야 최적인 search..

2022. 3. 20. 08:55

NAS(Neural Architecture Search) 기법에 대해 알아보기

1. NAS에 대한 오해 model의 일반적인 설계 방식은 model 구조인 architecture를 설계하고 그 위에 hyperparameter를 설정하고 그 위에 데이터를 넣어 train하면서 parameter를 tuning하여 model을 완성하여 사용 이제 가장 밑단의 architecture를 어떤 것을 써야할지 고민이다. 딥러닝이 상식처럼 알려져있지만 딥러닝이 아닌 architecture도 많고 SqueezeNet, ResNet, VGGNet 등등 여러가지가 많다 architecture는 사람이 직접 손으로 만드는 방법도 있지만 automatic하게 찾아내는 방법도 있다. ResNet의 residual block은 기계가 만든 것이 아니라 사람이 창의적으로 만드는 것 Neural architec..

2022. 3. 15. 23:36

딥러닝 모델의 hyperparameter search

1. hyperparameter 모델을 train할 때 사람이 골라주는 parameter learning rate, batch size, optimizer, …. 등등 어떤 hyperparameter를 사용할지에 따라 모델이 무슨 결과를 낼지는 해보지 않고서는 도저히 예측 불가능 그래서 hyperparameter search를 할 때는 model을 돌려서 결과를 보고나서 마음에 안드면 다른 hyperparameter를 고르고 그래 그런데 model 하나가 돌아갈 때 드는 cost는 거의 대부분 엄청나게 많아 단순히 돌아가는 것 뿐만 아니라 hyperparameter 변화로 모델이 그냥 이상해질 수도 있어서 그에 따른 비용도 엄청 남 그래서 hyperparameter search에는 parameter se..

2022. 3. 6. 20:21

유명한 model compression 논문 몇가지 미리보기

1. deep compression pruning과 quantization, huffman coding을 적절히 조합하여 model을 compression하는 기법을 소개 performance가 기존 모델과 비슷하면서도 압도적으로 parameter수를 줄였음 error는 기존 모델과 비슷한데 parameter수가 40배정도 감소시킨 당시 획기적인 논문 특정 모델에서 layer 단위에서도 compression시켜봄? 2. Once for all once-for-all network는 서로 다른 depth, width, resolution등을 가진 network의 조합 이런 network의 조합들을 서로 간섭없이 한번에 training하고 target device마다 적절한 sub network를 선정하여 ..