본문 바로가기
  • 紹睿: 자유롭고 더불어 사는 가치있는 삶

Study28

Lec 05 - Logistic Classification의 가설 함수 정의 Lec 05 - Logistic Classification의 가설 함수 정의 들어가기전, Linear regression에 대해 다시 복습해보자. Hypothesis: H(X) = WXCost: 학습데이터와 실제 가설을 세운 선이 얼마나 가깝고 먼지 측정(차이)의 평균 Weigth값을 찾는것Gradient decent: (learning rate: 한발자국에 얼마나 움직이는가) 오늘은 Binary Classification을 배운당.Classfication은 spam email 감지, facebook feed 등과 같은데에서 이용한다.원래 사용하던 패턴등을 파악하는데 사용하고 활용된다. Binary는 0,1(맞다, 아니다)로 나뉘는 경우를 말하는데 spam(1) / Ham(0)show(1) / hide(.. 2018. 5. 2.
Lec 04 - multi-variable linear regression multi-variable linear regression 여러개의 inputs이 있을때, 예를 들어서 퀴즈1, 퀴즈2, 중간 점수를 가지고 마지막 기말고사 점수를 예측하는 경우를 생각해보자! 이럴경우, Hypothesis는 아래와 같고 (x1=퀴즈1, x2=퀴즈2, x3=중간점수, y = 기말고사) Cost function또한 다음과 같다. n개의 inputs이 있다면 다음과 같아지는데, 수식이 점점 길게 늘어지기 때문에 우리는 Matrix multiplication을 사용한다!!!!!!!!! 실제 data에서 살펴볼 경우, 데이터가 한개만 존재할 수도 있지만, 여러개 (n)개가 존재할 수도 있다!!!각 data를 instance라고 불리우는데 아래와 같이 있다고 가정해 보자. 이런 경우, Matrix.. 2018. 4. 25.
Lec 03 - Linear Regression의 cost 최소화 알고리즘의 원리 설명 cost 최소화 하자! 먼저 설명을 쉽게 하기 위하여 가설을 아래와 같이 생각해 보자. cost function도 간략하게 아래와 같아진다. 이 값의 최소화 하는 값을 어떻게 구해야 할까? 다음과 같은 data가 있을때, x y 1 1 2 2 3 3 1. W= 1일때, cost(W)는 얼마일까? (1*1-1)^2 + (1*2-2)^2 + (1*3 - 3)^2/3 = 02. W=0 일때,(0*1-1)^2 + (0*2-2)^2 + (0*3 -3)^2/3 = 4.673. W=2 일때, (2*1-1)^2 + (2*2-2)^2 + (2*3-3)^2/3 = 4.67 W= 3일때, .....1000일때 등등등 대충 엑셀로 그려보니까, 0이 가장작은 값이 되는 이런 모양이 되었다. 우리는 가장 작은 W를 찾아야 하는데.. 2018. 4. 23.
Lec 02 - Linear Regression 의 Hypothesis와 Cost 설명 Linear Regression Linear Regression은, 먼저 Linear라는 가정이 있어야 한다. 이는 '공부한 시간이 많으면 성적이 높다', '아파트가 비싸면 좋을 것이다' 등등..과 같다. 우리는 주어진 data를 설명할 수 있는(?) 알맞는 선을 결정해야하며, 이 선을 찾는 것이 학습을 하는 것이다. 또한, 어떠한 선이 data를 잘 표현해 내는가, 까지 찾아야한다. 선(모델, 가설)이 좋은가를 알기 위해서는 실제 data와 선과의 거리를 측정하는 cost(loss) function을 계산해야하는데, 예측값과 실제값을 단순히 빼는을 생각할 수 있지만, 차이가 -,+로 나타나 계산하기 애매하다.따라서, 으로 나타내고 이렇게 되면 패널티를 더 받기 때문에, 학습은 더 잘된다! cost값은 .. 2018. 4. 23.