2018. 7. 3. 15:59
Deep Learning/NN by Sung Kim
Cost를 Minimize하는 방법 강좌를 정리한다.
가설(Hyperthesis) 단순화
b를 제거하고 cost(W)에 대해 구한다. 이때 최소화 되는 구간을 찾는다. 그래프상으로 Y축 cost(W)와 X축 W의 관계에서 cost(W) = 0 인 지점이 최소화 지점이다.
경사를 따라 내려가는 알고리즘 = Gradient Descent Algorithm 을 사용한다.
- 경사도가 있는 곳을 따라 움직이면서 cost를 줄인다. 미분이 경사도를 구하는 공식임.
- 즉, 해당 점의 기울기를 구한다.
Gradient Descent Algorithm Formal
Convex function
Cost function을 3차원으로 그렸을 때, 내려가는 경사를 잘 못 잡으면 내려간 곳의 W, b값이 틀려 질 수 있다. 알고리즘이 잘 동작하지 않는 예
Convex function을 통해 그릇형태로 만들어 어디를 내려오던 원하는 지점으로 수렴할 수 있다. Cost function을 만든 후 검증할 때 Convex function이 된다면 Linear Regression의 cost function은 잘 된 것으로 판명된다.
참조
'Deep Learning > NN by Sung Kim' 카테고리의 다른 글
[Linear Regression] Multi Variable 개념 및 실습 (0) | 2018.07.04 |
---|---|
[Linear Regression] Tensorflow를 이용한 Minimized Cost 실습 (0) | 2018.07.03 |
[Linear Regression] Tensorflow 실습 (0) | 2018.07.03 |
[Linear Regression] 개념 (0) | 2018.07.03 |
Tensorflow 설치하기 (0) | 2018.07.03 |