# 方式一:
一.重写start_request方法
def start_requests(self):中写入
yield scrapy.Request(url=url, meta={‘proxy’: ‘http://117.90.2.212:9000'}, callback=self.parse)

方式二

二、在中间件中加入代理IP,在把中间的类名加入setting中。
1.在middlewares.py中增加一个类,取名:ProxyMiddleware即代理中间件:
2、在 def process_request(self, request, spider)方法中加入
        request.meta["proxy"] = 'http://117.90.2.212:9000'

3、在setting中加入这个中间件的类
        DOWNLOADER_MIDDLEWARES = { 
        'middlewares.ProxyMiddleware': 90,
    }