Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 주식분석
- Java
- hive
- effective python
- 텐서플로
- 하둡2
- 딥러닝
- 코딩더매트릭스
- recursion
- Sort
- HelloWorld
- tensorflow
- codingthematrix
- C언어
- hadoop2
- NumPy
- 알고리즘
- python
- 파이썬
- C
- 하이브
- RNN
- 그래프이론
- LSTM
- collections
- scrapy
- graph
- GRU
- 선형대수
- yarn
Archives
- Today
- Total
EXCELSIOR
02. 아나콘다(Anaconda)를 이용한 웹크롤링 개발환경 설정 본문
1. 개발환경
- Python Version : 2.7
- 크롤링 라이브러리 : BeautifulSoup4, Scrapy
- 기타 : 아나콘다(Anaconda)를 이용한 가상환경(virtual environment) 설정
2. 아나콘다 설치
① https://www.continuum.io/downloads 사이트에서 운영체제에 맞는 아나콘다를 설치
② 가상환경(Virtual environment) 만들기
- Windows : 설치 후 Anaconda prompt를 실행한다.
- Mac OS : 설치 후 Terminal을 실행한다.
- Terminal/prompt 창에 아래의 명령어를 통해 웹 크롤링 개발환경을 설정할 가상환경을 생성한다. (저는 crawler라는 이름의 가상환경을 만들었습니다.)
# 가상환경 생성하기 conda create -n [가상환경이름] python=2.7
③ 생성한 가상환경에서 웹 크롤링에 필요한 패키지 설치하기
- 아래의 명령어를 통해 생성한 가상환경으로 이동한다.
# Windows 경우 conda prompt 창에서 activate [가상환경이름] # Mac OS 경우 Terminal에서 source activate [가상환경이름]
- 아래의 conda 명령어를 통해 필요한 패키지를 설치한다.
# BeautifulSoup4 설치 conda install beautifulsoup4 # Scrapy 설치 conda install scrapy
'Python > Web Crawling' 카테고리의 다른 글
05. Scrapy callback을 이용하여 링크(url)안의 내용 크롤링 하기 (0) | 2017.05.19 |
---|---|
04. Scrapy를 이용한 뉴스 크롤링 하기 (19) | 2017.05.07 |
03. BeautifulSoup vs Scrapy (1) | 2017.05.02 |
01. 웹 환경의 이해 (1) | 2017.05.01 |
웹 크롤링 스터디 게시판입니다 (0) | 2017.05.01 |
Comments