Lec 05 - Logistic Classification의 가설 함수 정의
들어가기전, Linear regression에 대해 다시 복습해보자.
Hypothesis: H(X) = WX
Cost: 학습데이터와 실제 가설을 세운 선이 얼마나 가깝고 먼지 측정(차이)의 평균
Weigth값을 찾는것
Gradient decent:
(learning rate: 한발자국에 얼마나 움직이는가)
오늘은 Binary Classification을 배운당.
Classfication은 spam email 감지, facebook feed 등과 같은데에서 이용한다.
원래 사용하던 패턴등을 파악하는데 사용하고 활용된다.
Binary는 0,1(맞다, 아니다)로 나뉘는 경우를 말하는데
spam(1) / Ham(0)
show(1) / hide(0)
...
이런식으로 나타낼 수 있다.
이외에도 주식시장이나, 의료 등등에서 다양한 분야에서 활용하고있다.
얼마나 공부해야 시험에 통과(1)/실패(0) 할까? 하는 모델을 생각해보자.
Linear Regression을 활용하여 생각해본다면, 다음과 같은 O/X data가 있을때, 아래와 같이파란 선을 그어 통과와 실패를 나눌 수 있고, 그 기준을 0.5정도로 잡아 통과와 실패를 나누어 얘기할 수 있다
하지만, 이렇게 생각한다면 다음과 같이 노란색 data가 추가되었을때, 노란색선이 모델이 되면서,
앞에서 통과로 분류되었던 아이들이, 갑자기 실패가 되어버린다.
또 다른 문제에서는 에서 0과 1의 값이 나와야하는데, 1을 초과하는 경우가 생길 수 있다는 것이다!
그래서, 이 값을 0과 1사이로 변환(?) 해주는 가설 함수로는 sigmoid(logistic function)가 있다.
따라서, 아래와 같이 나타낼 수 있다.
'Study > 모두를 위한 딥러닝 시즌1' 카테고리의 다른 글
Lec 06 - Softmax Regression: 기본 개념 소개 및 cost 함수 (0) | 2018.05.14 |
---|---|
Lec 05-2 - Logistic Regression의 cost 함수 (0) | 2018.05.02 |
Lec 04 - multi-variable linear regression (0) | 2018.04.25 |
Lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) | 2018.04.23 |
Lec 02 - Linear Regression 의 Hypothesis와 Cost 설명 (0) | 2018.04.23 |
댓글