# 介绍:
写这个随笔主要是为了日后再遇见这个问题,而不用百度一直找原因,耽误时间,我用多进程进行爬虫时,使用下面这个process_one.start(),一直报错说这个地方,百度谷歌搜索了好一会,也没有找到可靠的解决方法,后来找了好一会没找到,主要还是以前看到进程学习的使用,start(),就是调用run()方法,想着直接调用run()试试,结果还就可以了。
process_one = Process(target=baidu.run, args=(key,))
process_one.start()
1、报错:
Traceback (most recent call last):
File "D:/zjf_workspace/自己测试用的/030、网站图片/1、360/5、360_进程_many_thread_many_keys.py", line 103, in <module>
process_one.start()
File "D:\tools\Python3.6\lib\multiprocessing\process.py", line 105, in start
self._popen = self._Popen(self)
File "D:\tools\Python3.6\lib\multiprocessing\context.py", line 223, in _Popen
return _default_context.get_context().Process._Popen(process_obj)
File "D:\tools\Python3.6\lib\multiprocessing\context.py", line 322, in _Popen
return Popen(process_obj)
File "D:\tools\Python3.6\lib\multiprocessing\popen_spawn_win32.py", line 65, in __init__
reduction.dump(process_obj, to_child)
File "D:\tools\Python3.6\lib\multiprocessing\reduction.py", line 60, in dump
ForkingPickler(file, protocol).dump(obj)
TypeError: can't pickle _thread.lock objects
2、解决很简单:
主要还是以前看到进程学习的使用,start(),就是调用run()方法,想着直接调用run()试试,结果还就可以了。
process_one = Process(target=baidu.run, args=(key,))
# process_one.start()
process_one.run()
3、产生新的错误
AssertionError: can only join a started process
for process_i in process_list:
process_i.join()
然后 百度找了好久,找到一个解释,说join()不能用于等待.run()方法,
解释参考:https://www.cnblogs.com/YZL2333/p/10445981.html
4、直接去掉jion()测试
测试中。。。
等待。。。
如果能爬取到7300以上的图片,跑完没有报错,说明成功。
这个跑到7000,感觉没有单个程序爬的多,不过快一点,后续如果有更好的解决再来补充吧。