已有184人关注
Python网络爬虫从入门到实践
发表在Python图书答疑 2021-01-13 《Python网络爬虫从入门到实践》第15章 Scrapy爬虫框架 304页-306页
是否精华
版块置顶:

python网络爬虫从入门到实践,书本的第15章中,Scapy爬虫框架的304页起,爬取京东的图书信息的代码中,将scrapy框架爬取的京东图书信息,存入mysql的代码,一直报一下错误,查了很久都不知道哪里错,请解答,谢谢。


Traceback (most recent call last):


  File "D:\ProgramData\Anaconda3\lib\site-packages\twisted\internet\defer.py", line 1418, in _inlineCallbacks


    result = g.send(result)


  File "D:\ProgramData\Anaconda3\lib\site-packages\scrapy\crawler.py", line 89, in crawl


    yield self.engine.open_spider(self.spider, start_requests)


TypeError: __init__() takes 1 positional argument but 6 positional arguments (and 1 keyword-only argument) were given



分享到:
手机同步功能介绍
友情提示:以下图书配套资源能够实现手机同步功能
明日微信公众号
明日之星 明日之星编程特训营
客服热线(每日9:00-17:00)
400 675 1066
mingrisoft@mingrisoft.com
吉林省明日科技有限公司Copyright ©2007-2022,mingrisoft.com, All Rights Reserved长春市北湖科技开发区盛北大街3333号长春北湖科技园项目一期A10号楼四、五层
吉ICP备10002740号-2吉公网安备22010202000132经营性网站备案信息 营业执照