如何将PySpark导入Python的放实现(2种)

2022-10-07,,,

方法一

使用findspark

使用pip安装findspark:

pip install findspark

在py文件中引入findspark:

>>> import findspark
>>> findspark.init()

导入你要使用的pyspark库

>>> from pyspark import *

优点:简单快捷
缺点:治标不治本,每次写一个新的application都要加载一遍findspark

方法二

把预编译包中的python库文件添加到python的环境变量中

export spark_home=你的pyspark目录
export pythonpath=$spark_home/libexec/python:$spark_home/libexec/python/build:$pythonpath

优点:一劳永逸
缺点:对于小白可能不太了解环境变量是什么

问题1、importerror: no module named pyspark

现象:

  • 已经安装配置好了pyspark,可以打开pyspark交互式界面;
  • 在python里找不到pysaprk。

参照上面解决

问题2、importerror: no module named ‘py4j'

现象:

已经安装配置好了pyspark,可以打开pyspark交互式界面;
按照上面的b方式配置后出现该问题。
解决方法:

把py4j添加到python的环境变量中

export pythonpath= $spark_home/python/lib/py4j-x.xx-src.zip:$pythonpath

注意:这里的py4j-x.xx-src.zip根据自己电脑上的py4j版本决定。

测试成功的环境

  • python: 3.7、2.7
  • pyspark: 1.6.2 - 预编译包
  • os: mac osx 10.11.1

参考
stackoverflow: importing pyspark in python shell
stackoverflow: why can't pyspark find py4j.java_gateway?

到此这篇关于如何将pyspark导入python的放实现(2种)的文章就介绍到这了,更多相关pyspark导入python内容请搜索以前的文章或继续浏览下面的相关文章希望大家以后多多支持!

《如何将PySpark导入Python的放实现(2种).doc》

下载本文的Word格式文档,以方便收藏与打印。