Python网络爬虫从入门到实践
                 	
                        发表在Python图书答疑
                        2021-01-13                                                
                    		
                            《Python网络爬虫从入门到实践》第15章  Scrapy爬虫框架                            304页-306页                    	
                        
                        
                    
                    
                    	是否精华
                    	是
                    	否
                    
                    
                    
                            版块置顶:
                            是
                            否
                        
                    python网络爬虫从入门到实践,书本的第15章中,Scapy爬虫框架的304页起,爬取京东的图书信息的代码中,将scrapy框架爬取的京东图书信息,存入mysql的代码,一直报一下错误,查了很久都不知道哪里错,请解答,谢谢。
Traceback (most recent call last):
File "D:\ProgramData\Anaconda3\lib\site-packages\twisted\internet\defer.py", line 1418, in _inlineCallbacks
result = g.send(result)
File "D:\ProgramData\Anaconda3\lib\site-packages\scrapy\crawler.py", line 89, in crawl
yield self.engine.open_spider(self.spider, start_requests)
TypeError: __init__() takes 1 positional argument but 6 positional arguments (and 1 keyword-only argument) were given

 
	
                                                 VIP会员
VIP会员 购物车
购物车


 私信
                         私信 
                     发表新帖
发表新帖 立即签到
立即签到 
        		  
        		 
         		 关注
关注
                  回复
 回复 支持(
                	支持( 反对(
                    反对( 
                







 
                     
                     
					 
						 
						 
						 
						