반응형
여태까지 network를 layer를 쭉 쌓아서 구성했는데, 다양한 방법으로 나타낼 수 있다.
1. Fast forward(2015)
결과값을 2단 뒤에 또 붙힐수있고,
2. Split & Merge
나눴다가 다시 합칠수도 있고,
- convolutional network
출처: https://medium.com/@RaghavPrabhu/understanding-of-convolutional-neural-network-cnn-deep-learning-99760835f148
4. Recurrent Network
옆으로도 나갈 수도 있다.
출처: https://cdn-images-1.medium.com/max/1600/0*WdbXF_e8kZI1R5nQ.png
unit을 ㅋㅋㅋ 다양한 형태로 구성할 수 있다! (결과만 좋으면 '-' 오케이
반응형
'Study > 모두를 위한 딥러닝 시즌1' 카테고리의 다른 글
Lec 11-1,2 : ConvNet의 Conv 레이어 만들기 / max pooling과 full network (0) | 2018.05.28 |
---|---|
Lec10-2, 3: Weight 초기화 잘해보자/ Dropout, model 앙상블 (0) | 2018.05.23 |
Lec 10-1: Sigmoid 보다 ReLU가 더 좋아 (0) | 2018.05.23 |
Lec 09 - XOR 문제를 풀자 (0) | 2018.05.17 |
Lec 08 - 딥러닝의 기본 개념: 시작과 XOR 문제, back-propagation과 deep! (0) | 2018.05.15 |
댓글