Random Initialization
Neural Netwrok을 구현하기 위해서는
맨 처음에는 $\theta$를 초기화 하는 코드를 자성해야 한다.
보통 취하는 방법은 아래처럼 random initialTheta를 취하는 것이다.
optTheta = fminunc(@costFunction, initialTheta, options)
의문점은 Zero initialization
에 관한 의문이 생긴다.Logistic regression
을 작성할 때는 별 다른 문제가 되지 않는다. 하지만 Nueral Netwrok
이라면 그것은 문제가 된다.
위와 같이 0으로 초기화후 Gradient Descent
알고리즘을 수행하면 모든 Hidden Layer
들이 정확히 같이 값이 변화기 때문에
그저 중복적인 Hidden Layer
에 지나지 않게 된다.
Quiz
'MOOC > Machine Learning (python)' 카테고리의 다른 글
Autonomous Driving Example (0) | 2016.10.12 |
---|---|
Putting it together (0) | 2016.10.12 |
Gradient Checking (0) | 2016.08.04 |
Neural Networks Learning: Implementation note unrolling (0) | 2016.07.22 |
Neural Networks_Learning_3: Backpropagation Intuition (0) | 2016.07.22 |