분류 전체보기193 [하스스톤] 하스스톤 잘하구싶다(1) - 가난뱅이는 안대 나는 가난뱅이다! -> 돈이없다! -> 카드팩을 못깐다 ㅠㅠ -> 하스 허뎝 뭐 그래도 여태있던 가루가루가루를 모아서 마녀숲나오자마자 바쿠님을 만들었는데.. 출처:http://hs.inven.co.kr/dataninfo/card/detail.php?code=48158 않이; 못쓰고있다. 홀수성기사나 홀수도적 하면대지했는데, 갑자기 도발드루이딴게 판치면서, 때려쳤다. 그래서 당시에는 겁나 원맺소쓰는 사제나 하면서 싱나싱나 했었는데, 저번달 5월에 아래와같이 패치되면서 이젠 안한다. 밸런스 변경 사항 안내 - 2018년 5월 업데이트: 이번 밸런스 변경 사항은 5월 23일(한국 시간) 적용될 예정입니다. 다가오는 HCT 플레이오프 종료 후 예정된 업데이트에서 다음 카드들이 변경됩니다. 나가 바다 마녀 - 비.. 2018. 6. 6. Lec 11-1,2 : ConvNet의 Conv 레이어 만들기 / max pooling과 full network Convolutional Network ConvNet은 아래와 같이 구성된다. Image를 하나의 입력으로 받는 것이 아니라, 이미지의 일부분씩 처리한다. 그 일부분을 Filter라고 하는데, Filter를 걸치게 되면 하나의 값을 뽑아내게 된다. Filter는 Wx+b를 이용해서 하나의 값으로 나타내게 된다. (Weight에 따라 결정되게 되겠다.)Filter에서는 W값이 변하지 않는! 똑같은 값을 가지고 옆으로 넘기면서 하나의 값들을 뽑아내게 된다. 예를 들어서 - 7x7x3 image가 3x3x3 filter를 걸치면, 5x5 output이 나오게 된다.(Stride 1)- Stride2의 경우는 3x3 output output의 사이즈는 NxN의 image에서 Filter FxF 라고 할때,(N-.. 2018. 5. 28. Lec10-4: 레고처럼 네트웍 모듈을 쌓기! 여태까지 network를 layer를 쭉 쌓아서 구성했는데, 다양한 방법으로 나타낼 수 있다. 1. Fast forward(2015) 결과값을 2단 뒤에 또 붙힐수있고, 2. Split & Merge 나눴다가 다시 합칠수도 있고, - convolutional network 출처: https://medium.com/@RaghavPrabhu/understanding-of-convolutional-neural-network-cnn-deep-learning-99760835f148 4. Recurrent Network 옆으로도 나갈 수도 있다. 출처: https://cdn-images-1.medium.com/max/1600/0*WdbXF_e8kZI1R5nQ.png unit을 ㅋㅋㅋ 다양한 형태로 구성할 수 있다!.. 2018. 5. 28. Lec10-2, 3: Weight 초기화 잘해보자/ Dropout, model 앙상블 여태까지 우리 초기화를 random(-1~1)으로 두고 학습을 시켰다. 먼저, weigth 초기값을 0으로 두자! chain rule 사용시 weigth가 사용되는데, 이렇게 되면 계속 기울기가 다 0이 되어버린다.왜 weigth 초기값이 중요한지 알겠는가! gradient가 사라져 버렷! 그러면 weight 초기값을 어떻게 주어야 될까? 2006년, "A Fast Learning Algorithm for Deep Belief Nets" 에서는 Restricted Boatman Machine(RBM)이 사용 된다. RBM STRUCTURE 먼저, Forward로 weight를 구해본다!그 다음,Backward로 x hat값을 구해본다! 그러면, 앞 forward의 x값과 backward의 x hat값이 .. 2018. 5. 23. Lec 10-1: Sigmoid 보다 ReLU가 더 좋아 NN for XOR 앞에서 우리는 activation function으로 sigmoid 를 썼다.(activation function은 일정이상값이 되면 activation이 되도록 하는 거기 때문에 activation function이라고 부른당.) Vanishing gradientbackpropgation은 vanishing gradient 문제를 가지고 있당. 2~3단 까지는 괜찮았지만, ㅠㅠ sigmoid는 1보다 작은 값을 항상 내놓기 때문에 layer가 많아 지면 많아질 수록 input에 대해 0.00000......이런식으로 값이 작아져 결과에 미치는 영향이 작아져버린다. 출처: http://cfile4.uf.tistory.com/image/22293C50579F7BBF1331FA 그래서 s.. 2018. 5. 23. [일기] 2018/5/17/목 - 않이.. 앞으로 하구시픈거? 할거? 1. 운동: 꾸준히 꾸준히가 중요하다 꾸준히..꾸준히 좀해 ㅠㅠ멍충아1) 3년동안 찐 5kg를 다시 빼도록 해보자- 월/수/금: 다리- 화/목: 배- 주말: 놀기(?) 2) 스포츠 해볼만한 것 찾아보기목록- 수영- 복싱( ㅡㅡ )- Climing2. 공부1) 모두를 위한 딥러닝 시즌1- 포스팅은 내스스로의 머리 정리를 위해서 꼭 할것!- 본거라고 대충또 넘기지 말기- 그리고 이 다음에 RL듣기- 실습은 NN~RNN까지 함께 올리기!2) 선형대수- 프로그래머를 위한 선형대수- 및 인터넷 강의3) 머신러닝에 필요한 확률 통계: 세상참 좋아졌당.. 많은 곳에 많은 자료가아아 3. 프로젝트 도전해보기1) 여행 - 바닷가(여름이니까!)2) 디자인 공부해보기(포토샵, 일러스트)3) 대학생.. 2018. 5. 17. 이전 1 ··· 25 26 27 28 29 30 31 ··· 33 다음