为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?


这是「进击的Coder」的第 464 篇技术分享
作者:青南
来源:未闻Code

有些同学在写爬虫的时候,觉得只要自己每次请求都使用不同的代理 IP,每次请求的 Headers 都写得跟浏览器的一模一样,就不会被网站发现。

但实际上,还有一个东西,叫做浏览器指纹,它是不会随着你更换 IP 或者 User-Agent 而改变的。而且即使你不使用模拟浏览器,你直接使用 Golang、使用 Python,它们也有自己各自的指纹,并且他们的指纹每次请求也是固定的。只要网站发现某个拥有特定指纹的客户端持续高频率请求网站,它就可以把你封掉。

你似乎不相信?那我证明给你看。

现在,我准备一个隧道代理,如下图所示:

为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

然后,我们打开一个网站:https://ja3er.com/json . 当你用电脑浏览器打开它的时候,它是这样的:

为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

不论你怎么刷新网页,这上面的字符串都是不会变的。

现在,我使用 Python 去请求这个页面,看到的内容如下图所示:

为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

可以看到,虽然我使用了隧道代理,每次请求的 IP 都是不一样的,但是这个网站返回的内容始终是一样的。所以如果这不是一个测试网站,而是一个加了这个检测机制的网站,那么它轻松就能把我给屏蔽了。

这个检测算法,叫做JA3算法。这个算法在官网上面的介绍信息如下:

The JA3 algorithm takes a collection of settings from the SSL “Client Hello” such as SSL/TLS version, accepted cipher suites, list of extensions, accepted elliptic curves, and elliptic curve formats.

为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

JA3 算法收集了 SSL 请求里面的信息,包括但不限于 SSL/TLS 版本,Cipher Suites数量,浏览器扩展列表,elliptic curves等等。通过这一系列参数综合起来生成一个指纹字符串。也许这些参数里面,你跟一些人的 Cipher Suites 数量相同,你跟另外一些人的浏览器扩展数相同,你又跟另外一些人的 TLS 版本号相同……但是所有这些参数全部相同的人,就非常少了。而在这非常少的人里面,这些人还同时访问同一个网站的可能性就更小了。所以,网站用 JA3算法,可以近似认为,在一段时间内,指纹字符串相同的连续请求,有极大概率是来自同一个人。

JA3 算法的三个作者之一 John Althouse 写了一篇文章来介绍浏览器指纹和 JA3 算法:TLS Fingerprinting with JA3 and JA3S | by John Althouse | Salesforce Engineering[1] 。有兴趣的同学可以看一看。


参考资料

[1]

TLS Fingerprinting with JA3 and JA3S | by John Althouse | Salesforce Engineering: https://engineering.salesforce.com/tls-fingerprinting-with-ja3-and-ja3s-247362855967

为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

End

「进击的Coder」专属学习群已正式成立,搜索「CQCcqc4」添加崔庆才的个人微信或者扫描下方二维码拉您入群交流学习。


为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

看完记得关注@进击的Coder
及时收看更多好文
↓↓↓



好文和朋友一起看~

原文始发于微信公众号(进击的Coder):为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?

本站文章资源均来源自网络,除非特别声明,否则均不代表站方观点,并仅供查阅,不作为任何参考依据!
如有侵权请及时跟我们联系,本站将及时删除!
如遇版权问题,请查看 本站版权声明
THE END
分享
二维码
海报
为什么随机 IP、随机 UA 也逃不掉被反爬虫的命运?
这是「进击的Coder」的第 464 篇技术分享 作者:青南 来源:未闻Code 有些同学在写爬虫的时候,觉得只要自己每次请求都使用不同的代理 IP,每次请求……
<<上一篇
下一篇>>