Python网络爬虫从入门到实践
发表在Python图书答疑
2021-01-13
《Python网络爬虫从入门到实践》第15章 Scrapy爬虫框架 304页-306页
是否精华
是
否
版块置顶:
是
否
python网络爬虫从入门到实践,书本的第15章中,Scapy爬虫框架的304页起,爬取京东的图书信息的代码中,将scrapy框架爬取的京东图书信息,存入mysql的代码,一直报一下错误,查了很久都不知道哪里错,请解答,谢谢。
Traceback (most recent call last):
File "D:\ProgramData\Anaconda3\lib\site-packages\twisted\internet\defer.py", line 1418, in _inlineCallbacks
result = g.send(result)
File "D:\ProgramData\Anaconda3\lib\site-packages\scrapy\crawler.py", line 89, in crawl
yield self.engine.open_spider(self.spider, start_requests)
TypeError: __init__() takes 1 positional argument but 6 positional arguments (and 1 keyword-only argument) were given