2018. 7. 3. 14:40
Deep Learning/NN by Sung Kim
성김님의 Linear Regression강좌 개념을 정리해 본다.
Regression
- 범위에 관한 문제를 다룬다. 예측을 위한 기본적인 범위(x)를 통해 결과(y)에 대한 학습을 수행한다.
- Linear Regression 가설
+ 예: 학생이 공부를 많이 할 수록 성적이 높아지고, 훈련을 많이할 수록 기록이 좋아진다.
+ 아래와 같은 선을 찾는 것이 Linear Regression의 목적이다.
H(x): 우리가 세운 가설
Wx: x 값
W, b 에 따라 선의 모양이 달라진다.
예) 파란선: H(x) = 1 * x + 0
노란선: H(x) = 0.5 * x + 2
Cost function
Linear Regression의 가설 선과 실제 값사이의 거리가 가까우면 잘 맞은 것이고, 아니면 잘 맞지 않은 것 일 수 있다. 이를 계산하는 산술식을 Cost(Lost) function이라 한다.
- 예측값 H(x) 와 실제값 y 를 뺀 후 제곱을 한다. 제곱을 하는 이유는
+ 음수를 양수로 만들고
+ 차이에 대한 패널티를 더 준다.
cost = (H(x) - y) 2
수식에 대한 일반화
최종 목표는 W, b에 대해 가장 작은 값을 학습을 통해 찾는 것이다. - Goal: Minimize cost
minimize cost(W, b)
참조
'Deep Learning > NN by Sung Kim' 카테고리의 다른 글
[Linear Regression] Multi Variable 개념 및 실습 (0) | 2018.07.04 |
---|---|
[Linear Regression] Tensorflow를 이용한 Minimized Cost 실습 (0) | 2018.07.03 |
[Linear Regression] Minimize Cost (0) | 2018.07.03 |
[Linear Regression] Tensorflow 실습 (0) | 2018.07.03 |
Tensorflow 설치하기 (0) | 2018.07.03 |