爬虫的本质就是“抓取”第二方网站中有价值的数据,因此,每个网站都会或多或少地采用一些反爬虫技术来防范爬虫。比如前面介绍的通过 User-Agent 请求头验证是否为浏览器、使用 JavaScript 动态加载资源等,这些都是常规的反爬虫手段。
下面针对更强的反爬虫技术提供一些解决方案。
有些网站会使用 IP 地址验证进行反爬虫处理,程序会检查客户端的 IP 地址,如果发现同一个 IP 地址的客户端频繁地请求数据, 该网站就会判断该客户端是爬虫程序。
针对这种情况,我们可以让 Scrapy 不断地随机更换代理服务器的 IP 地址,这样就可以欺骗目标网站了。
为了让 Scrapy 能随机更换代理服务器,可以自定义一个下载中间件,让该下载中间件随机更换代理服务器即可。
Scrapy 随机更换代理服务器只要两步:
打开 Scrapy 项目下的 middlewares.py 文件,在该文件中增加定义如下类:
class RandomProxyMiddleware (object) :
#动态设置代理服务器的IP 地址
def process request (self, request, spider):
# get_random_proxy() 函数随机返回代理服务器的IP 地址和端口
request.meta["proxy"] = get_random_proxy()
#配置自定义的下载中间件
DOWNLOADER MIDDLEWARES = {
'ZhipinSpider.middlewares.RandomProxyMiddleware': 543,
}
有些网站可以通过跟踪 Cooki