您的位置: 首页 > 新闻资讯 > 正文

代理IP应对反爬虫的策略

发布时间:2019-10-22 17:08:12 来源:

面对网站的反爬虫机制,我们要在爬虫之前做好相关的研究,这样才能够让爬虫程序顺利抓取到我们需要的数据。如何突破反爬虫机制,代理IP告诉你怎么做。


代理IP应对反爬虫的策略


1、cookie


防:Cookie是一把双刃剑,有它不行,没它更不行。网站会通过cookie监测你的浏览过程,要是察觉你有爬虫情形会马上中止你的浏览,例如你非常快的填好表单,或是短时间内访问很多网页。


攻:合理地处理cookie,又能够解决好多采集问题,建议在抓取网站过程中,检查一下那些网页生成的cookie,之后想想哪一个是爬虫需要解决的。


2、Headers


防:许多网页都会对Headers的User-Agent完成监测,也有一部分网站会对Referer完成监测。


破:直接在爬虫中加上Headers,将浏览器的User-Agent导入到爬虫的Headers中;或者将Referer值更改为目标网站域名。


3、网页加密


防:有时候我们在网上看到一个好的网页特效或者图片时,想要查看网页的源码,但是却发现网页不但右键给锁定了,而且有时就直接禁止查看源代码。即使能查看源代码,却只看到了一堆乱码。这些网页正是使用了加密的方法将源码给隐藏起来了。


攻:对于内容进行了网页脚本加密的情况,可以通过模拟加密算法还原运行脚本,或是编写插件进行扩展等。


4、用户行为


防:少部分网页是利用检测用户行为,比如同一IP短时间内频繁访问同一页面,或是同一账户短时间内频繁进行相同操作。


攻:要是抓取数量不多,也不着急,可以降低抓取频率,也就是每一次请求后随机间隔几秒再进行下一次请求。


要是需要抓取大批量数据,可以使用代理IP的海量IP资源来破解,比如使用黑洞代理。有了大量代理ip后能够每请求几次更换一个ip,循环使用,很简单的绕过反爬虫。


5、蜜罐技术


防:在反爬虫的机制中,有一种蜜罐技术。页面上会有意留下某些人类看不见或是一定不会点击的链接。因为爬虫会从源代码中抓取信息,因此爬虫可能会浏览这样的链接。这个时候,只要网站发现了有IP访问这个链接,立刻永久封禁该IP + User-Agent + Mac地址等等能够用来识别访问者身份的所有信息。如果这样的话,访问者即使是把IP换了,也无法继续访问该网站了,给爬虫造成了非常大的浏览困难。


攻:定向爬虫的爬行轨迹是由我们来决定的,爬虫会访问哪些网址我们都是知道的。因此即使网站有蜜罐,定向爬虫也未必会中招。


6、验证码验证


防:当浏览过快或是有出错时,还要输入验证码才可以继续浏览的网站。


攻:简洁明了的数字验证码能够利用OCR分辨,只是如今很多验证码都变得复杂了了,因此要是的确不简单可以接入平台自动打码。


相关文章内容简介

1 代理IP应对反爬虫的策略

  面对网站的反爬虫机制,我们要在爬虫之前做好相关的研究,这样才能够让爬虫程序顺利抓取到我们需要的数据。如何突破反爬虫机制,代理IP告诉你怎么做。  1、cookie  防:Cookie是一把双刃剑,有它不行,没它更不行。网站会通过cookie监测你的浏览过程,要是察觉你有爬虫情形会马上中止你的浏览,例如你非常快的填好表单,或是短时间内访问很... [阅读全文]

最新标签