Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- effective python
- yarn
- Sort
- scrapy
- 텐서플로
- C언어
- LSTM
- 딥러닝
- RNN
- 하둡2
- 파이썬
- 선형대수
- 알고리즘
- collections
- hive
- 코딩더매트릭스
- NumPy
- C
- python
- tensorflow
- 하이브
- 주식분석
- GRU
- Java
- graph
- codingthematrix
- 그래프이론
- recursion
- HelloWorld
- hadoop2
Archives
- Today
- Total
목록bn (1)
EXCELSIOR
05-2. 심층 신경망 학습 - 배치 정규화, 그래디언트 클리핑
05-2. 심층 신경망 학습 - 배치 정규화, 그래디언트 클리핑저번 포스팅 05-1. 심층 신경망 학습에서는 DNN 학습에 있어서 적절한 활성화 함수 및 가중치 초기화 방법에 대해 알아보았다. 이번 포스팅에서는 그래디언트 소실(vanishing gradient)과 폭주(exploding) 문제를 해결하는 방법인 배치 정규화(BN, Batch Normalization)와 그래디언트 클리핑(Gradient Clipping), 그리고 학습 속도를 높일 수 있는 최적화(Optimization) 방법에 대해 알아보도록 하자. 1. 배치 정규화(BN, Batch Normalization)05-1. 심층 신경망 학습에서는 활성화 함수로는 ReLU를 사용하고 He 초기화를 통해 학습 초기 단계에서의 그래디언트 소실/폭..
DeepLearning/개념
2018. 10. 10. 22:39