Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 그래프이론
- 하둡2
- codingthematrix
- GRU
- 알고리즘
- RNN
- recursion
- 주식분석
- 코딩더매트릭스
- 선형대수
- graph
- NumPy
- Java
- 텐서플로
- Sort
- effective python
- collections
- python
- C
- tensorflow
- 하이브
- hadoop2
- 딥러닝
- LSTM
- scrapy
- hive
- C언어
- HelloWorld
- yarn
- 파이썬
Archives
- Today
- Total
목록PCA (1)
EXCELSIOR
차원 축소 - PCA, 주성분분석 (1)
차원 축소 - PCA (1)대부분 실무에서 분석하는 데이터는 매우 많은 특성(feature)들을 가지고 있다. 이러한 데이터를 가지고 머신러닝 알고리즘을 적용해 문제를 해결하려고 한다면, 데이터의 차원이 크기 때문에 학습 속도가 느릴 뿐만아니라 성능 또한 좋지 않을 가능성이 크다. 이번 포스팅에서는 데이터의 차원을 축소하는 방법인 투영(projection)과 매니폴드 학습(manifold learning) 그리고 대표적인 차원 축소 알고리즘인 주성분분석(PCA)에 대해 알아보도록 하자. 1. 차원의 저주 머신러닝에서 데이터 셋의 특성(feature)가 많아지면, 각 특성인 하나의 차원(dimension) 또한 증가하게 된다. 이렇게 데이터의 차원이 증가할 수록 데이터 공간의 부피가 기하 급수적으로 증가하..
Machine_Learning(ML)
2018. 9. 1. 17:19