1일차 neural network, supervised learning, activation 간단하게

 

1. neural network

 

etc-image-0

 

 

 
 
 

 

 
etc-image-1
 
 
 
 
 
 
 
 
etc-image-2
 

 

 

 
 

 
 
 
neural network에 의해 만들어지는 대부분의 경제적 가치는 supervised learning에서 나온다.
 
etc-image-3
 
 
 
 
 
etc-image-4
 
 
 
 
 
 
 

 
 
 
sigmoid function의 경우, gradient descent를 구현하면 gradient가 0이 되어 parameter의 변화가 매우 느리게 진행된다.
 
반면 ReLU의 경우 양수 input에 대해서는 항상 gradient가 1이어서 gradient descent가 더 빨라졌으며, 이는 계산을 빠르게 할 수 있게 해준다.
 
 
 

4. activation function

 
etc-image-5

 

 

 

 

 
 
 tanh 함수는 sigmoid를 이동시켜서 만든 함수

 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 

728x90