使用requests做爬虫遇到的一个报错。
ConnectionRefusedError: [WinError 10061] 由于目标计算机积极拒绝,无法连接
这种报错基本上是目标网站不能访问导致的。
有朋友说,明明人家的网站是可以访问的啊,为什么我用爬虫requests发送请求的时候就出现这样的情况呢?
这样的话,要检查一下对方有没有启用ssl了
有些站没启用ssl,你访问的链接是https那就可能出现这样的错。
还有一种情况,就是对方网站被列入了反诈对象,域名被墙或者被污染,部分区域被解析到0.0.0.0或者127.0.0.1啦,你使用代理ip爬取内容有可能正好是那个区域内的ip,这也可能导致出现这种错误。
标签: