1일차 neural network, supervised learning, activation 간단하게

 

1. neural network

 

 

 

 
 
 

 

 
 
 
 
 
 
 
 
 
 

 

 

 
 

 
 
 
neural network에 의해 만들어지는 대부분의 경제적 가치는 supervised learning에서 나온다.
 
 
 
 
 
 
 
 
 
 
 
 
 

 
 
 
sigmoid function의 경우, gradient descent를 구현하면 gradient가 0이 되어 parameter의 변화가 매우 느리게 진행된다.
 
반면 ReLU의 경우 양수 input에 대해서는 항상 gradient가 1이어서 gradient descent가 더 빨라졌으며, 이는 계산을 빠르게 할 수 있게 해준다.
 
 
 

4. activation function

 

 

 

 

 

 
 
 tanh 함수는 sigmoid를 이동시켜서 만든 함수

 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 

TAGS.

Comments