激情久久久_欧美视频区_成人av免费_不卡视频一二三区_欧美精品在欧美一区二区少妇_欧美一区二区三区的

腳本之家,腳本語言編程技術及教程分享平臺!
分類導航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服務器之家 - 腳本之家 - Python - MAC下Anaconda+Pyspark安裝配置詳細步驟

MAC下Anaconda+Pyspark安裝配置詳細步驟

2022-03-11 00:20Sun_Sherry Python

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件來使環境變量永久生效(若不修改該文件,在命令行中輸入相應的命令即可,本文給大家介紹MAC下Anaconda+Pyspark安裝配置詳細步驟,感興趣的朋友跟隨小編一起看看吧

在MAC的Anaconda上使用pyspark,主要包括以下步驟:

  • 在MAC下安裝Spark,并配置環境變量。
  • 在Anaconda中安裝引用pyspark。

1. MAC下安裝Spark

  到Apark Spark官網上下載Spark文件,無論是windows系統,還是MAC系統,亦或者Linux系統,都可以下載這個文件(獨立于系統)。

MAC下Anaconda+Pyspark安裝配置詳細步驟

將下載的文件進行解壓(可以使用命令行進行解壓,也可以使用解壓軟件)。解壓之后的文件如下:

MAC下Anaconda+Pyspark安裝配置詳細步驟

配置環境變量。打開MAC命令行窗口,輸入如下命令:

sudo vi ~/.bash_profile #bash_profile是當前用戶的環境變量文件

打開bash_profile文件,并在該文件中增加以下兩行命令:

export SPARK_HOME="/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7" #spark文件的完整解壓目錄
export PATH=${PATH}:${SPARK_HOME}/bin

如下圖

MAC下Anaconda+Pyspark安裝配置詳細步驟

保存并退出之后,運行以下命令:

source ~/.bash_profile #讓修改的bash_profile生效
echo $PATH #查看環境變量,可以看到新增的路徑名

一般MAC上使用的是zsh的shell工具,需要修改zshrc文件來使環境變量永久生效(若不修改該文件,在命令行中輸入spark- shell或者pyspark時可能會提示zsh:command not found:pysparkzsh:command not found spark-shell )。輸入以下命令:

vi ~/.zshrc

修改該文件,添加如下命令:

if [ -f ~/.bash_profile ]; then
      source ~/.bash_profile
fi 

保存并退出即可。下面來驗證spark是否正確安裝,具體如下:
(1)命令行中輸入spark-shell

MAC下Anaconda+Pyspark安裝配置詳細步驟

(2)命令行中輸入pyspark

MAC下Anaconda+Pyspark安裝配置詳細步驟

至此,spark已經安裝成功。

2.在Anaconda中引用pyspark

  想要在Anacond中使用pyspark, 只需將spark解壓文件中python文件夾下的pyspark復制到Anaconda下的site-packages文件中。下面來驗證一下是否能在spyder中使用pyspark, 使用如下代碼:

from pyspark import SparkContext, SparkConf

if __name__ == "__main__":
  spark_conf = SparkConf()\
      .setAppName('Python_Spark_WordCount')\
      .setMaster('local[2]') 
  #使用spark最原始的API進行數據分析
  sc = SparkContext(conf=spark_conf)
  sc.setLogLevel('WARN')
  print (sc)
 # ------創建RDD,需要分析的數據 --------------------------------------
  def local_rdd(spark_context):
      datas = ['hadoop spark','hadoop hive spark','hadoop hive spark',\
               'hadoop python spark','hadoop python spark',]
      return spark_context.parallelize(datas)

  rdd = local_rdd(sc)
  print (rdd.count())
  print (rdd.first())
  sc.stop()

運行發現提示如下錯誤:

MAC下Anaconda+Pyspark安裝配置詳細步驟

從提示信息可以知道,找不到SPARK_HOME。可以在上述主函數中增加如下代碼:

import os
#添加spark安裝目錄
os.environ['SPARK_HOME'] ='/Users/sherry/documents/spark/spark-3.1.2-bin-hadoop2.7'

重新運行即可得到如下結果:

5

hadoop spark到此這篇關于MAC+Anaconda+Pyspark安裝配置教程的文章就介紹到這了,更多相關Anaconda Pyspark安裝配置內容請搜索服務器之家以前的文章或繼續瀏覽下面的相關文章希望大家以后多多支持服務器之家!

原文鏈接:https://blog.csdn.net/yeshang_lady/article/details/121570361
 

延伸 · 閱讀

精彩推薦
主站蜘蛛池模板: 成人福利在线看 | 日韩精品免费一区二区三区 | 国产系列 视频二区 | 毛片a级毛片免费播放100 | 黄色免费播放网站 | 成人不卡在线观看 | 亚洲成人福利网站 | 精品一区视频 | 色爱99| 欧美精品一区自拍a毛片在线视频 | 免费的性生活视频 | 激情视频导航 | 羞羞答答tv | av在线不卡免费 | 粉嫩粉嫩一区二区三区在线播放 | 成人免费一区二区 | 特级黄一级播放 | 女人一级一级毛片 | 亚洲一区二区三区四区精品 | bt 自拍 另类 综合 欧美 | 99久久婷婷国产综合精品青牛牛 | 性 毛片| asian裸体佳人pics | 久久99精品久久久久久236 | 免费国产一区 | 国产精品久久久久久久久久iiiii | 日韩黄色片免费看 | 久草在线视频免费播放 | 国产成人在线播放视频 | 午夜视频观看 | 欧美三级一级 | 欧美雌雄另类xxxxx | 国产亚洲福利 | 久久久久成人免费 | 99久久精品免费 | 欧美一级淫片免费播放口 | 精品亚洲视频在线 | av性色全交蜜桃成熟时 | 黄视频网址 | 视频一区二区国产 | 亚洲精品午夜国产va久久成人 |