一区二区三区在线-一区二区三区亚洲视频-一区二区三区亚洲-一区二区三区午夜-一区二区三区四区在线视频-一区二区三区四区在线免费观看

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - MAC下Anaconda+Pyspark安裝配置詳細步驟

MAC下Anaconda+Pyspark安裝配置詳細步驟

2022-03-11 00:20Sun_Sherry Python

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件來使環境變量永久生效(若不修改該文件,在命令行中輸入相應的命令即可,本文給大家介紹MAC下Anaconda+Pyspark安裝配置詳細步驟,感興趣的朋友跟隨小編一起看看吧

在MAC的Anaconda上使用pyspark,主要包括以下步驟:

  • 在MAC下安裝Spark,并配置環境變量。
  • 在Anaconda中安裝引用pyspark。

1. MAC下安裝Spark

  到Apark Spark官網上下載Spark文件,無論是windows系統,還是MAC系統,亦或者Linux系統,都可以下載這個文件(獨立于系統)。

MAC下Anaconda+Pyspark安裝配置詳細步驟

將下載的文件進行解壓(可以使用命令行進行解壓,也可以使用解壓軟件)。解壓之后的文件如下:

MAC下Anaconda+Pyspark安裝配置詳細步驟

配置環境變量。打開MAC命令行窗口,輸入如下命令:

sudo vi ~/.bash_profile #bash_profile是當前用戶的環境變量文件

打開bash_profile文件,并在該文件中增加以下兩行命令:

export SPARK_HOME="/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7" #spark文件的完整解壓目錄
export PATH=${PATH}:${SPARK_HOME}/bin

如下圖

MAC下Anaconda+Pyspark安裝配置詳細步驟

保存并退出之后,運行以下命令:

source ~/.bash_profile #讓修改的bash_profile生效
echo $PATH #查看環境變量,可以看到新增的路徑名

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件來使環境變量永久生效(若不修改該文件,在命令行中輸入spark- shell或者pyspark時可能會提示zsh:command not found:pysparkzsh:command not found spark-shell )。輸入以下命令:

vi ~/.zshrc

修改該文件,添加如下命令:

if [ -f ~/.bash_profile ]; then
      source ~/.bash_profile
fi 

保存并退出即可。下面來驗證spark是否正確安裝,具體如下:
(1)命令行中輸入spark-shell

MAC下Anaconda+Pyspark安裝配置詳細步驟

(2)命令行中輸入pyspark

MAC下Anaconda+Pyspark安裝配置詳細步驟

至此,spark已經安裝成功。

2.在Anaconda中引用pyspark

  想要在Anacond中使用pyspark, 只需將spark解壓文件中python文件夾下的pyspark復制到Anaconda下的site-packages文件中。下面來驗證一下是否能在spyder中使用pyspark, 使用如下代碼:

from pyspark import SparkContext, SparkConf

if __name__ == "__main__":
  spark_conf = SparkConf()\
      .setAppName('Python_Spark_WordCount')\
      .setMaster('local[2]') 
  #使用spark最原始的API進行數據分析
  sc = SparkContext(conf=spark_conf)
  sc.setLogLevel('WARN')
  print (sc)
 # ------創建RDD,需要分析的數據 --------------------------------------
  def local_rdd(spark_context):
      datas = ['hadoop spark','hadoop hive spark','hadoop hive spark',\
               'hadoop python spark','hadoop python spark',]
      return spark_context.parallelize(datas)

  rdd = local_rdd(sc)
  print (rdd.count())
  print (rdd.first())
  sc.stop()

運行發現提示如下錯誤:

MAC下Anaconda+Pyspark安裝配置詳細步驟

從提示信息可以知道,找不到SPARK_HOME??梢栽谏鲜鲋骱瘮抵性黾尤缦麓a:

import os
#添加spark安裝目錄
os.environ['SPARK_HOME'] ='/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7'

重新運行即可得到如下結果:

5

hadoop spark到此這篇關于MAC+Anaconda+Pyspark安裝配置教程的文章就介紹到這了,更多相關Anaconda Pyspark安裝配置內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/yeshang_lady/article/details/121570361
 

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 久久理论片迅播影院一级 | 国产高清经典露脸3p | 久久精品视在线观看2 | 99久久免费看精品国产一区 | 87影院在线观看视频在线观看 | 成人精品福利 | 日本xxx18hd| 99精品影视| 精品午夜寂寞影院在线观看 | 午夜在线观看免费完整直播网 | 日日摸日日碰夜夜爽97纠 | 日本国产最新一区二区三区 | 香蕉国产精品偷在线播放 | 色综合天天综合 | 精品国产人成亚洲区 | 免费一级特黄特色大片∵黄 | 惩罚狠h调教灌满 | 成人在线观看一区 | 久久香蕉电影 | 国产欧美一区二区三区免费 | 欧美一级鲁丝片免费看 | 操破苍穹在线 | 东京道一本热大交乱 | 亚洲国产欧美在线人网站 | 俄罗斯海滩厕所偷窥 | voyeur 中国女厕 亚洲女厕 | 国产伊人久久 | 温柔校草高h | 91影视在线看免费观看 | 深夜影院a | 日本色资源 | 免费看日产一区二区三区 | 九九免费精品视频 | 3d欧美人禽交 | 久久综合久综合久久鬼色 | 国产精品www | 国产高清在线视频一区二区三区 | 成人影院vs一区二区 | 天堂网www在线观看 天堂欧美 | 国产成人lu在线视频 | 免费看国产一级特黄aa大片 |