Python 100天-從新手到大師學習筆記Day67:數據採集和解析
1 min readJul 9, 2019
通过《网络爬虫和相关工具》一文,我们已经了解到了开发一个爬虫需要做的工作以及一些常见的问题,至此我们可以对爬虫开发需要做的工作以及相关的技术做一个简单的汇总,这其中可能会有一些我们之前没有使用过的第三方库,不过别担心,这些内容我们稍后都会一一讲到。
- 下载数据 — urllib / requests / aiohttp。
- 解析数据 — re / lxml / beautifulsoup4(bs4)/ pyquery。
- 缓存和持久化 — pymysql / sqlalchemy / peewee/ redis / pymongo。
- 生成数字签名 — hashlib。
- 序列化和压缩 — pickle / json / zlib。
- 调度器 — 进程(multiprocessing) / 线程(threading) / 协程(coroutine)。