一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - Pyinstaller打包Scrapy項目的實現步驟

Pyinstaller打包Scrapy項目的實現步驟

2020-09-23 00:03vample Python

這篇文章主要介紹了Pyinstaller打包Scrapy項目的實現步驟,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

1.安裝pyinstaller

2.安裝pywin32 

3.安裝其他模塊

注意點:

scrapy用pyinstaller打包不能用

?
1
cmdline.execute('scrapy crawl douban -o test.csv --nolog'.split())

我用的是CrawlerProcess方式來輸出

舉個栗子:

1、在scrapy項目根目錄下建一個crawl.py(你可以自己定義)如下圖

Pyinstaller打包Scrapy項目的實現步驟

cralw.py代碼如下

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
# -*- coding: utf-8 -*-
from scrapy.crawler import CrawlerProcess
from scrapy.utils.project import get_project_settings
from douban.spiders.douban_spider import Douban_spider
 
#打包需要的import
import urllib.robotparser
import scrapy.spiderloader
import scrapy.statscollectors
import scrapy.logformatter
import scrapy.dupefilters
import scrapy.squeues
import scrapy.extensions.spiderstate
import scrapy.extensions.corestats
import scrapy.extensions.telnet
import scrapy.extensions.logstats
import scrapy.extensions.memusage
import scrapy.extensions.memdebug
import scrapy.extensions.feedexport
import scrapy.extensions.closespider
import scrapy.extensions.debug
import scrapy.extensions.httpcache
import scrapy.extensions.statsmailer
import scrapy.extensions.throttle
import scrapy.core.scheduler
import scrapy.core.engine
import scrapy.core.scraper
import scrapy.core.spidermw
import scrapy.core.downloader
import scrapy.downloadermiddlewares.stats
import scrapy.downloadermiddlewares.httpcache
import scrapy.downloadermiddlewares.cookies
import scrapy.downloadermiddlewares.useragent
import scrapy.downloadermiddlewares.httpproxy
import scrapy.downloadermiddlewares.ajaxcrawl
import scrapy.downloadermiddlewares.chunked
import scrapy.downloadermiddlewares.decompression
import scrapy.downloadermiddlewares.defaultheaders
import scrapy.downloadermiddlewares.downloadtimeout
import scrapy.downloadermiddlewares.httpauth
import scrapy.downloadermiddlewares.httpcompression
import scrapy.downloadermiddlewares.redirect
import scrapy.downloadermiddlewares.retry
import scrapy.downloadermiddlewares.robotstxt
import scrapy.spidermiddlewares.depth
import scrapy.spidermiddlewares.httperror
import scrapy.spidermiddlewares.offsite
import scrapy.spidermiddlewares.referer
import scrapy.spidermiddlewares.urllength
import scrapy.pipelines
import scrapy.core.downloader.handlers.http
import scrapy.core.downloader.contextfactory
 
from douban.pipelines import DoubanPipeline
from douban.items import DoubanItem
import douban.settings
 
if __name__ == '__main__':
  setting = get_project_settings()
  process = CrawlerProcess(settings=setting)
  process.crawl(Douban_spider)
  process.start()

2、在crawl.py目錄下pyinstaller crawl.py 生成dist,build(可刪)和crawl.spec(可刪)。

3、在crawl.exe目錄下創建文件夾scrapy,然后到自己安裝的scrapy文件夾中把VERSION和mime.types兩個文件復制到剛才創建的scrapy文件夾中。

4、發布程序 包括douban/dist 和douban/scrapy.cfg 

如果沒有scrapy.cfg無法讀取settings.py和pipelines.py的配置

Pyinstaller打包Scrapy項目的實現步驟

5、在另外一臺機器上測試成功

6、對于自定義的pipelines和settings,貌似用pyinstaller打包后的 exe無法讀取到settings和pipelines,哪位高手看看能解決這個問題???

到此這篇關于Pyinstaller打包Scrapy項目的實現步驟的文章就介紹到這了,更多相關Pyinstaller打包Scrapy內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/vample/article/details/86224021

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 国产亚洲人成网站在线观看不卡 | 99久久久久久久 | 高h巨肉play| 糖心hd在线观看 | 欧美成人精品第一区二区三区 | 女人被爽到呻吟娇喘的视频动态图 | 久久www免费人成高清 | 国产精品久久久久这里只有精品 | 男男视频18免费网站 | 色婷婷久久综合中文久久一本 | 香蕉免费看一区二区三区 | 国产品精人成福利视频 | 久久精品小视频 | 亚洲国产综合久久精品 | 国产精品视频免费观看 | 波多在线| 91精品国产麻豆国产自产在线 | 嫩草精品 | 思敏1一5集国语版免费观看 | 无人区在线观看免费观看 | 日日操天天射 | 日本中文字幕二区三区 | 日韩理论片| 日韩网站在线观看 | 国产精品久久久久a影院 | 亚洲AV无码偷拍在线观看 | 黄篇网站在线观看 | 国人精品视频在线观看 | x8x8国产在线观看2021 | 秋霞理论在一l级毛片 | 草草视频免费看 | 99热热99| 高h折磨调教古代 | 国产91短视频 | 男女车车好快的车车免费网站 | 欧美a在线观看 | 91在线视频国产 | 香蕉成人国产精品免费看网站 | 日本xxxx在线视频免费 | 欧美一级在线播放 | 天天做天天爱天天综合网 |