资 源 简 介
Python spider抓取内容并实现分词功能
一个简单的python爬虫,随手写的,仅仅实现功能,使用了第三方的类库 BeautifulSoup4,请自行安装,window下 `pip install bs4`即可,需要目录下的spider.py文件,运行环境:python3.4,windows7
* 所有脚本要和spider.py放到同一目录下
## 爬取知乎的爬虫 zhihu.py
命令行下运行,例:zhihu.py 1 5 获取1到5页的数据
* 主要实现 爬取一个收藏夹 里 所有问题答案下的 图片(你懂得)
* 文字信息暂未收录,可自行实现,比图片更简单
* 具体代码里有详细注释,请自行阅读
## 子文件夹文件说明:
.py文件|爬虫程序
.sql文件|数据表结构
.html文件|数据展示
.php文件|数据展示界面数据接口