Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- tensorflow
- C
- GRU
- 하둡2
- LSTM
- graph
- 파이썬
- scrapy
- RNN
- effective python
- HelloWorld
- 텐서플로
- hadoop2
- NumPy
- yarn
- 하이브
- collections
- 주식분석
- Java
- 코딩더매트릭스
- 알고리즘
- hive
- Sort
- recursion
- 딥러닝
- C언어
- codingthematrix
- 선형대수
- python
- 그래프이론
Archives
- Today
- Total
목록He (1)
EXCELSIOR
05-1. 심층 신경망 학습 - 활성화 함수, 가중치 초기화
5-1. 심층 신경망 학습 - 활성화 함수, 가중치 초기화 저번 포스팅 04. 인공신경망에서 예제로 살펴본 신경망은 hidden layer가 2개인 얕은 DNN에 대해 다루었다. 하지만, 모델이 복잡해질수록 hidden layer의 개수가 많은 신경망 모델을 학습시켜야 한다. 이러한 깊은 DNN 모델을 학습시키는데에는 다음과 같은 문제가 발생할 확률이 높다.그래디언트 소실(vanishing gradient) 또는 폭주(exploding)가 발생할 수 있다.모델이 복잡하고 커질수록 학습시간이 매우 느려진다.모델이 복잡할수록 오버피팅(overfitting)될 위험이 크다.이번 포스팅에서는 이러한 문제들에 대해 알아보고 해결할 수 있는 활성화 함수와 가중치 초기화 방법에 대해 알아보도록 하자. 1. 그래디언트..
DeepLearning/개념
2018. 10. 5. 13:50