Study/모두를 위한 딥러닝 시즌1
Lec 02 - Linear Regression 의 Hypothesis와 Cost 설명
징여
2018. 4. 23. 18:20
반응형
Linear Regression
Linear Regression은, 먼저 Linear라는 가정이 있어야 한다. 이는 '공부한 시간이 많으면 성적이 높다', '아파트가 비싸면 좋을 것이다' 등등..과 같다.
우리는 주어진 data를 설명할 수 있는(?) 알맞는 선을 결정해야하며, 이 선을 찾는 것이 학습을 하는 것이다.
또한, 어떠한 선이 data를 잘 표현해 내는가, 까지 찾아야한다.
선(모델, 가설)이 좋은가를 알기 위해서는 실제 data와 선과의 거리를 측정하는 cost(loss) function을 계산해야하는데, 예측값과 실제값을 단순히 빼는을 생각할 수 있지만, 차이가 -,+로 나타나 계산하기 애매하다.
따라서, 으로 나타내고 이렇게 되면 패널티를 더 받기 때문에, 학습은 더 잘된다!
cost값은 예측값과 실제 값의 차이의 제곱의 평균을 나타내는데, 이를 공식으로 표현하면 다음과 같다.
H(x) = Wx + b이기 때문에, 이를 H(x)에 대입하게 되면 cost는 다음과 같이 나타난다.
Linear regression 학습에서는 가장 작은(최소)W,b cost function의 값을 구하는 것이 목표이다
반응형