본문 바로가기
  • 紹睿: 자유롭고 더불어 사는 가치있는 삶
[하스스톤] 하스스톤 잘하구싶다(1) - 가난뱅이는 안대 나는 가난뱅이다! -> 돈이없다! -> 카드팩을 못깐다 ㅠㅠ -> 하스 허뎝 뭐 그래도 여태있던 가루가루가루를 모아서 마녀숲나오자마자 바쿠님을 만들었는데.. 출처:http://hs.inven.co.kr/dataninfo/card/detail.php?code=48158 않이; 못쓰고있다. 홀수성기사나 홀수도적 하면대지했는데, 갑자기 도발드루이딴게 판치면서, 때려쳤다. 그래서 당시에는 겁나 원맺소쓰는 사제나 하면서 싱나싱나 했었는데, 저번달 5월에 아래와같이 패치되면서 이젠 안한다. 밸런스 변경 사항 안내 - 2018년 5월 업데이트: 이번 밸런스 변경 사항은 5월 23일(한국 시간) 적용될 예정입니다. 다가오는 HCT 플레이오프 종료 후 예정된 업데이트에서 다음 카드들이 변경됩니다. 나가 바다 마녀 - 비.. 2018. 6. 6.
Lec 11-1,2 : ConvNet의 Conv 레이어 만들기 / max pooling과 full network Convolutional Network ConvNet은 아래와 같이 구성된다. Image를 하나의 입력으로 받는 것이 아니라, 이미지의 일부분씩 처리한다. 그 일부분을 Filter라고 하는데, Filter를 걸치게 되면 하나의 값을 뽑아내게 된다. Filter는 Wx+b를 이용해서 하나의 값으로 나타내게 된다. (Weight에 따라 결정되게 되겠다.)Filter에서는 W값이 변하지 않는! 똑같은 값을 가지고 옆으로 넘기면서 하나의 값들을 뽑아내게 된다. 예를 들어서 - 7x7x3 image가 3x3x3 filter를 걸치면, 5x5 output이 나오게 된다.(Stride 1)- Stride2의 경우는 3x3 output output의 사이즈는 NxN의 image에서 Filter FxF 라고 할때,(N-.. 2018. 5. 28.
Lec10-4: 레고처럼 네트웍 모듈을 쌓기! 여태까지 network를 layer를 쭉 쌓아서 구성했는데, 다양한 방법으로 나타낼 수 있다. 1. Fast forward(2015) 결과값을 2단 뒤에 또 붙힐수있고, 2. Split & Merge 나눴다가 다시 합칠수도 있고, - convolutional network 출처: https://medium.com/@RaghavPrabhu/understanding-of-convolutional-neural-network-cnn-deep-learning-99760835f148 4. Recurrent Network 옆으로도 나갈 수도 있다. 출처: https://cdn-images-1.medium.com/max/1600/0*WdbXF_e8kZI1R5nQ.png unit을 ㅋㅋㅋ 다양한 형태로 구성할 수 있다!.. 2018. 5. 28.
Lec10-2, 3: Weight 초기화 잘해보자/ Dropout, model 앙상블 여태까지 우리 초기화를 random(-1~1)으로 두고 학습을 시켰다. 먼저, weigth 초기값을 0으로 두자! chain rule 사용시 weigth가 사용되는데, 이렇게 되면 계속 기울기가 다 0이 되어버린다.왜 weigth 초기값이 중요한지 알겠는가! gradient가 사라져 버렷! 그러면 weight 초기값을 어떻게 주어야 될까? 2006년, "A Fast Learning Algorithm for Deep Belief Nets" 에서는 Restricted Boatman Machine(RBM)이 사용 된다. RBM STRUCTURE 먼저, Forward로 weight를 구해본다!그 다음,Backward로 x hat값을 구해본다! 그러면, 앞 forward의 x값과 backward의 x hat값이 .. 2018. 5. 23.
Lec 10-1: Sigmoid 보다 ReLU가 더 좋아 NN for XOR 앞에서 우리는 activation function으로 sigmoid 를 썼다.(activation function은 일정이상값이 되면 activation이 되도록 하는 거기 때문에 activation function이라고 부른당.) Vanishing gradientbackpropgation은 vanishing gradient 문제를 가지고 있당. 2~3단 까지는 괜찮았지만, ㅠㅠ sigmoid는 1보다 작은 값을 항상 내놓기 때문에 layer가 많아 지면 많아질 수록 input에 대해 0.00000......이런식으로 값이 작아져 결과에 미치는 영향이 작아져버린다. 출처: http://cfile4.uf.tistory.com/image/22293C50579F7BBF1331FA 그래서 s.. 2018. 5. 23.
[일기] 2018/5/17/목 - 않이.. 앞으로 하구시픈거? 할거? 1. 운동: 꾸준히 꾸준히가 중요하다 꾸준히..꾸준히 좀해 ㅠㅠ멍충아1) 3년동안 찐 5kg를 다시 빼도록 해보자- 월/수/금: 다리- 화/목: 배- 주말: 놀기(?) 2) 스포츠 해볼만한 것 찾아보기목록- 수영- 복싱( ㅡㅡ )- Climing2. 공부1) 모두를 위한 딥러닝 시즌1- 포스팅은 내스스로의 머리 정리를 위해서 꼭 할것!- 본거라고 대충또 넘기지 말기- 그리고 이 다음에 RL듣기- 실습은 NN~RNN까지 함께 올리기!2) 선형대수- 프로그래머를 위한 선형대수- 및 인터넷 강의3) 머신러닝에 필요한 확률 통계: 세상참 좋아졌당.. 많은 곳에 많은 자료가아아 3. 프로젝트 도전해보기1) 여행 - 바닷가(여름이니까!)2) 디자인 공부해보기(포토샵, 일러스트)3) 대학생.. 2018. 5. 17.
Lec 09 - XOR 문제를 풀자 이 XOR문제를 풀어보자!!! Neural Network(NN) 1개가 아니라 2개 unit을 이용하여 XOR문제를 해결해 볼것임!!!그림으로 나타내면 다음과 같은데, 이러한 애들이 있다는 가정하에 문제를 풀어서 과연 XOR문제를 풀수 있는지 보려고한다! 이걸 하나로 풀어서 XOR값이 제대로 나오는지 확인해보장. 하나의 예로 처음 (0,0) -> XOR이 0 이 되는지 보면, 정답이 나옴....ㅋㅋㅋㅋㅋㅋㅋ 간단하다 x_1,x_2의 값에 sigmoid를 적용해서 0,1로 뽑고 그걸 넣어 문제를 풀어 나가면된당. 간단데스이러한 것을 Forward propagation이라고 한다. 다시 그림으로 표현하면 다음과 같은 NN(Neural network)이 되고......(그림으로 그리기 어렵다 ㅠㅠ흐긓그흑) 이.. 2018. 5. 17.
Lec 08 - 딥러닝의 기본 개념: 시작과 XOR 문제, back-propagation과 deep! AND/OR problemand/or 문제는 linear 한 선을 만들면 되기 때문에! 처음 이 두개를 성공했을때, 엄청난 발전이 있을 것으로 생각했지만,,XOR문제에 봉착한다... 같으면0, 다르면 1 되는 단순한 문제임에도 불구하고 ㅠ.ㅠ 선을 긋지못했당... 흑흑.... 이 문제를 해결하기 위해서, Backpropagation(1974, 1982 by Paul Werbos, 1986 by Hinton) 알고리즘이 개발되었당.예측값과 label의 error를 거꾸로 학습시키는 방법이당! 또다른 방법으로는 Convolutional Neural Networks(by LeCun) 알고리즘이 있다.(출처: http://www.mdpi.com/1099-4300/19/6/242) 일부분을 잘라서 layer로 보.. 2018. 5. 15.
Lec 07-2 - Training/Testing data set 이제, 이 학습된 모델을 평가하는 방법을 알아보자!!!!!!! Training set을 이용하여 모델을 학습을 시키고, 다시 Training set을 가지고 물어보게 되면 100% 다 맞추겠지용? 보통은 전체 Data가 있을때, 70%는 Training set, 30% Test set로 나눈다.Training set을 이용하여 모델을 학습시키고, 학습된 모델을 Test set으로 평가한다. Training, validation and test learning rate나 regulariztion strength를 조정할 필요가 있을때, 우리는 validation을 이용하여 조정하기도 한다. Online learningmodel을 추가로 학습시키는 것을 의미 Accuracy이미 정답이 있기 때문에! 예측한 .. 2018. 5. 15.