做爬虫的都对爬虫框架再熟悉不过了,谈到爬虫架构,不得不提的是Scrapy的爬虫架构。Scrapy,是Python开发的一个快速,高层次的爬虫框架,用于抓取web站点并从页面中提取结构化的数据。Scrapy用处非常的广泛,可以用于数据挖掘、监测和自动化测试。Scrapy吸引人的地方在于它是一个框架,任何人都可以根据需求方便的修改。它也提供了多种类型爬虫的基类,如BaseSpider、sitemap爬虫等。 当我们要爬取大量网页的时候,可能会收到对方服务器的限制,从而被禁止。那么我们应该如何应对这些反爬虫机制呢?scrapy项目中可以有很多方法避免被禁止。其中使用比较多的就是添加代理IP和随机ua。因为大部分网站都是通过这两种方式进行反爬的。那么具体怎么使用呢?这里简单的给大家示例下代理IP的添加方式: - #! -*- encoding:utf-8 -*- import base64 import sys import random PY3 = sys.version_info[0] >= 3 def base64ify(bytes_or_str): if PY3 and isinstance(bytes_or_str, str): input_bytes = bytes_or_str.encode('utf8') else: input_bytes = bytes_or_str output_bytes = base64.urlsafe_b64encode(input_bytes) if PY3: return output_bytes.decode('ascii') else: return output_bytes class ProxyMiddleware(object): def process_request(self, request, spider): # 代理服务器(产品官网 [url]it帮论坛真好[/url]) proxyHost = "t.16yun.cn" proxyPort = "31111" # 代理验证信息 proxyUser = "username" proxyPass = "password" request.meta['proxy'] = "http://{0}:{1}".format(proxyHost,proxyPort) # [版本>=2.6.2](https://docs.scrapy.org/en/lates ... py-2-6-2-2022-07-25)无需添加验证头,会自动在请求头中设置Proxy-Authorization # 版本<2.6.2 需要手动添加代理验证头 # request.headers['Proxy-Authorization'] = 'Basic ' + base64ify(proxyUser + ":" + proxyPass) # 设置IP切换头(根据需求) # tunnel = random.randint(1,10000) # request.headers['Proxy-Tunnel'] = str(tunnel) # 每次访问后关闭TCP链接,强制每次访问切换IP request.header['Connection'] = "Close"
复制代码
这是动态转发模式的代理使用方式,和传统饿api的程序自己或IP池然后进行IP池管理有很大的区别,经过使用对比,动态转发代理使用方式更简单,不需要花时间去维护IP池,很方面项目的启动,特别是对爬虫新手来说,方便很多。还有其他语言的示例有需要的可以去直接搜索亿牛云,在官网上可以找到其他爬虫语言的代理使用参考demo。
|