激情久久久_欧美视频区_成人av免费_不卡视频一二三区_欧美精品在欧美一区二区少妇_欧美一区二区三区的

腳本之家,腳本語言編程技術(shù)及教程分享平臺(tái)!
分類導(dǎo)航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務(wù)器之家 - 腳本之家 - Python - Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

2022-01-08 00:04紫陌幽茗 Python

這篇文章主要介紹了Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決方案,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

 

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax

 

報(bào)錯(cuò)信息

Traceback (most recent call last): File “d:pythonlib unpy.py”,
line 193, in _run_module_as_main
“main”, mod_spec) File “d:pythonlib unpy.py”, line 85, in run_code
exec(code, run_globals) File "D:pythonScriptsscrapy.exe_main.py", line 9, in File
“d:pythonlibsite-packagesscrapycmdline.py”, line 150, in execute
_run_print_help(parser, _run_command, cmd, args, opts) File “d:pythonlibsite-packagesscrapycmdline.py”, line 90, in
_run_print_help
func(*a, **kw) File “d:pythonlibsite-packagesscrapycmdline.py”, line 157, in
_run_command
cmd.run(args, opts) File “d:pythonlibsite-packagesscrapycommandscrawl.py”, line 57, in
run
self.crawler_process.crawl(spname, **opts.spargs) File “d:pythonlibsite-packagesscrapycrawler.py”, line 170, in crawl
crawler = self.create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 198, in
create_crawler
return self._create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 203, in
create_crawler
return Crawler(spidercls, self.settings) File “d:pythonlibsite-packagesscrapycrawler.py”, line 55, in init
self.extensions = ExtensionManager.from_crawler(self) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 58, in
from_crawler
return cls.from_settings(crawler.settings, crawler) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 34, in
from_settings
mwcls = load_object(clspath) File “d:pythonlibsite-packagesscrapyutilsmisc.py”, line 44, in
load_object
mod = import_module(module) File "d:pythonlibimportlib_init.py", line 127, in import_module
return _bootstrap._gcd_import(name[level:], package, level) File “

啟動(dòng)命令如下:

scrapy crawl first_spider -o first_spider.csv

 

解決方法

經(jīng)過查詢發(fā)現(xiàn)async在python3.7中是保留字,因此將twistedconchmanhole.py中的async修改為isasync即可解決問題

 

使用scrapy做爬蟲遇到的一些坑

使用xpath和CSS遇到的一些 invalid syntax

 

1.引號(hào)的歧義:最外面應(yīng)該使用單引號(hào)

錯(cuò)誤:

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

正確:把定位的xpath外加單引號(hào)

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

 

2.使用了關(guān)鍵字做變量

錯(cuò)誤:

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

正確:注意關(guān)鍵字不能做變量

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

 

3.進(jìn)入shell窗口時(shí),url添加了“”

錯(cuò)誤:

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

正確:去掉url的引號(hào)

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

 

4.使用xpath匹配相關(guān)信息,返回為空列表

錯(cuò)誤:因?yàn)橐婚_始網(wǎng)址就是錯(cuò)誤的,所以不管匹配的xpath是不是對(duì)的,都會(huì)返回【】

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

正確:

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

Scrapy啟動(dòng)報(bào)錯(cuò)invalid syntax的解決

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持服務(wù)器之家。

原文鏈接:https://blog.csdn.net/weixin_43165512/article/details/105978883

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 在线免费av网站 | www.9191.com| 91在线视频福利 | 午夜在线观看视频网站 | 精品国产看高清国产毛片 | 久久蜜桃香蕉精品一区二区三区 | 国产精选91 | ,欧美特黄特色三级视频在线观看 | 免费a级黄色毛片 | 欧美黄成人免费网站大全 | 欧美日韩大片在线观看 | 91久久国产露脸精品国产护士 | 久久精品片| 91久久线看在观草草青青 | 久久成人视屏 | 中文字幕一区二区三区四区 | av在线直播观看 | 本色视频aaaaaa一级网站 | 毛片电影在线看 | 日本免费a∨ | 亚洲天堂ww | 欧美 日韩 亚洲 中文 | 国产午夜免费福利 | 中文字幕精品一区久久久久 | 国产亚洲区 | 欧美黄色一级生活片 | 草莓福利视频在线观看 | 久久人人爽人人爽人人片av高清 | 欧美黄色大片免费观看 | 日本欧美一区二区三区在线播 | 一级电影在线观看 | 夜夜夜精品视频 | 免费毛片儿 | 羞羞视频免费网站含羞草 | 久久久久性视频 | 成人在线视频黄色 | 91久久国产综合精品女同国语 | h视频免费看 | 午夜精品久久久久久久爽 | 国产精品亚洲精品久久 | 成人免费在线观看视频 |