여러개의 Classification 강좌를 정리한다.
Logistic Regression
Y hat 은 예측이다. 두가지를 구분하는 선을 찾아내기를 학습한다.
즉, Multinomial 을 0 또는 1을 만들고 이들을 구분하는 선을 찾는 것이다.
세번의 독립된 binary classification을 구한다.
- A 이거나 not 아니거나
- B 이거나 not 아니거나
- C 이거나 not 아니거나
개별적인 것을 Matrix로 표현한다.
Softmax를 이용한 단순화하기
전체 값을 합치면 1이 되는 함수 = Softmax classifier (강좌)
예측 모델
0.7, 0.2, 0.1은 확률값과 같고 이를 classification하면 다음과 같이 a가 1이되고 나머지는 0이 된다.
여기서 "One-Hot Encoding"을 이용하여 1 또는 0의 예측을 구한다.
Cost function
예측과 실제값의 비용함수를 구하기 위해 "Cross-Entropy"를 사용한다. Cost function의 결과값이 작으면 예측이 맞는 것이다. 크면 예측이 맞지 않는 것이다.
- D: 차이 Distance
하나에 대한 것은 기존의 Logistic cost function과 cross entropy공식은 같다.
여러 Training set을 넣을 때 거리의 합에 대한 평균을 구한다. Loss (Cost) function 을 최종적으로 얻을 수 있다.
Gradient Descent 적용
Cost function을 미분하면서 기울기가 가장 작은 값의 W값을 찾는다.
참조
'Deep Learning > NN by Sung Kim' 카테고리의 다른 글
[Tips] Learning rate, data preprocessing, overfiting (0) | 2018.07.05 |
---|---|
[Multinomial Classification] Softmax 실습 (0) | 2018.07.05 |
[Logistic classification] 개념 (0) | 2018.07.04 |
[Linear Regression] Multi Variable 개념 및 실습 (0) | 2018.07.04 |
[Linear Regression] Tensorflow를 이용한 Minimized Cost 실습 (0) | 2018.07.03 |