一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

2022-01-08 00:04紫陌幽茗 Python

這篇文章主要介紹了Scrapy啟動報錯invalid syntax的解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

 

Scrapy啟動報錯invalid syntax

 

報錯信息

Traceback (most recent call last): File “d:pythonlib unpy.py”,
line 193, in _run_module_as_main
“main”, mod_spec) File “d:pythonlib unpy.py”, line 85, in run_code
exec(code, run_globals) File "D:pythonScriptsscrapy.exe_main.py", line 9, in File
“d:pythonlibsite-packagesscrapycmdline.py”, line 150, in execute
_run_print_help(parser, _run_command, cmd, args, opts) File “d:pythonlibsite-packagesscrapycmdline.py”, line 90, in
_run_print_help
func(*a, **kw) File “d:pythonlibsite-packagesscrapycmdline.py”, line 157, in
_run_command
cmd.run(args, opts) File “d:pythonlibsite-packagesscrapycommandscrawl.py”, line 57, in
run
self.crawler_process.crawl(spname, **opts.spargs) File “d:pythonlibsite-packagesscrapycrawler.py”, line 170, in crawl
crawler = self.create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 198, in
create_crawler
return self._create_crawler(crawler_or_spidercls) File “d:pythonlibsite-packagesscrapycrawler.py”, line 203, in
create_crawler
return Crawler(spidercls, self.settings) File “d:pythonlibsite-packagesscrapycrawler.py”, line 55, in init
self.extensions = ExtensionManager.from_crawler(self) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 58, in
from_crawler
return cls.from_settings(crawler.settings, crawler) File “d:pythonlibsite-packagesscrapymiddleware.py”, line 34, in
from_settings
mwcls = load_object(clspath) File “d:pythonlibsite-packagesscrapyutilsmisc.py”, line 44, in
load_object
mod = import_module(module) File "d:pythonlibimportlib_init.py", line 127, in import_module
return _bootstrap._gcd_import(name[level:], package, level) File “

啟動命令如下:

scrapy crawl first_spider -o first_spider.csv

 

解決方法

經過查詢發現async在python3.7中是保留字,因此將twistedconchmanhole.py中的async修改為isasync即可解決問題

 

使用scrapy做爬蟲遇到的一些坑

使用xpath和CSS遇到的一些 invalid syntax

 

1.引號的歧義:最外面應該使用單引號

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:把定位的xpath外加單引號

Scrapy啟動報錯invalid syntax的解決

 

2.使用了關鍵字做變量

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:注意關鍵字不能做變量

Scrapy啟動報錯invalid syntax的解決

 

3.進入shell窗口時,url添加了“”

錯誤:

Scrapy啟動報錯invalid syntax的解決

正確:去掉url的引號

Scrapy啟動報錯invalid syntax的解決

 

4.使用xpath匹配相關信息,返回為空列表

錯誤:因為一開始網址就是錯誤的,所以不管匹配的xpath是不是對的,都會返回【】

Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

正確:

Scrapy啟動報錯invalid syntax的解決

Scrapy啟動報錯invalid syntax的解決

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持服務器之家。

原文鏈接:https://blog.csdn.net/weixin_43165512/article/details/105978883

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 韩国三级动漫 | 污黄漫 | 国产成人性色视频 | 欧美男男xxx激情做受 | 午夜精品久久久内射近拍高清 | 2018高清国产一道国产 | 俄罗斯精品bbw| 希岛爱理aⅴ在线中文字幕 午夜综合网 | 午夜国产在线观看 | 国产美女操 | 99久久精品免费看国产一区二区 | 天天做天天爱天天操 | 手机在线免费观看日本推理片 | 亚洲人成网站在线观看播放青青 | 动漫美女胸被狂揉扒开吃奶动态图 | 91精品国产91久久久久久 | 午夜爱爱爱爱爽爽爽视频网站 | wc凹凸撒尿间谍女厕hd | 情侣奴伺候女王第2部分小说 | 国产成人精品高清在线观看99 | porono日本动漫 | 天天爱综合网 | 日本大片免a费观看在线 | 嫩草视频在线观看视频播放 | 成年视频在线播放 | 天美传媒tm0087 | 按摩椅play啊太快了h | 小兰被扒开内裤露出p | 亚洲国产成人久久综合一 | 男女乱淫真视频播放网站 | 四虎4hu新地址入口 四虎1515h永久 | 蜜桃免费 | 精品久久久久中文字幕日本 | 4tube欧美高清 | 国产成人久视频免费 | 亚洲国产成人精品 | 免费永久观看美女视频网站网址 | 91精品国产色综合久久不卡蜜 | 男人搡女人视频免费看 | 嫩草视频在线观看视频播放 | 欧美一级精品 |