반응형
Linear Regression
Linear Regression은, 먼저 Linear라는 가정이 있어야 한다. 이는 '공부한 시간이 많으면 성적이 높다', '아파트가 비싸면 좋을 것이다' 등등..과 같다.
우리는 주어진 data를 설명할 수 있는(?) 알맞는 선을 결정해야하며, 이 선을 찾는 것이 학습을 하는 것이다.
또한, 어떠한 선이 data를 잘 표현해 내는가, 까지 찾아야한다.
선(모델, 가설)이 좋은가를 알기 위해서는 실제 data와 선과의 거리를 측정하는 cost(loss) function을 계산해야하는데, 예측값과 실제값을 단순히 빼는을 생각할 수 있지만, 차이가 -,+로 나타나 계산하기 애매하다.
따라서, 으로 나타내고 이렇게 되면 패널티를 더 받기 때문에, 학습은 더 잘된다!
cost값은 예측값과 실제 값의 차이의 제곱의 평균을 나타내는데, 이를 공식으로 표현하면 다음과 같다.
H(x) = Wx + b이기 때문에, 이를 H(x)에 대입하게 되면 cost는 다음과 같이 나타난다.
Linear regression 학습에서는 가장 작은(최소)W,b cost function의 값을 구하는 것이 목표이다
반응형
'Study > 모두를 위한 딥러닝 시즌1' 카테고리의 다른 글
Lec 06 - Softmax Regression: 기본 개념 소개 및 cost 함수 (0) | 2018.05.14 |
---|---|
Lec 05-2 - Logistic Regression의 cost 함수 (0) | 2018.05.02 |
Lec 05 - Logistic Classification의 가설 함수 정의 (0) | 2018.05.02 |
Lec 04 - multi-variable linear regression (0) | 2018.04.25 |
Lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 (0) | 2018.04.23 |
댓글