Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- python
- 주식분석
- C
- hadoop2
- GRU
- C언어
- scrapy
- 하둡2
- codingthematrix
- 코딩더매트릭스
- HelloWorld
- recursion
- collections
- 텐서플로
- 딥러닝
- 선형대수
- effective python
- graph
- 하이브
- Java
- 그래프이론
- NumPy
- yarn
- hive
- 알고리즘
- LSTM
- 파이썬
- tensorflow
- Sort
- RNN
Archives
- Today
- Total
목록그래디언트 클리핑 (1)
EXCELSIOR
05-2. 심층 신경망 학습 - 배치 정규화, 그래디언트 클리핑
05-2. 심층 신경망 학습 - 배치 정규화, 그래디언트 클리핑저번 포스팅 05-1. 심층 신경망 학습에서는 DNN 학습에 있어서 적절한 활성화 함수 및 가중치 초기화 방법에 대해 알아보았다. 이번 포스팅에서는 그래디언트 소실(vanishing gradient)과 폭주(exploding) 문제를 해결하는 방법인 배치 정규화(BN, Batch Normalization)와 그래디언트 클리핑(Gradient Clipping), 그리고 학습 속도를 높일 수 있는 최적화(Optimization) 방법에 대해 알아보도록 하자. 1. 배치 정규화(BN, Batch Normalization)05-1. 심층 신경망 학습에서는 활성화 함수로는 ReLU를 사용하고 He 초기화를 통해 학습 초기 단계에서의 그래디언트 소실/폭..
DeepLearning/개념
2018. 10. 10. 22:39