如何通过pyspark-notebook配置一个简单的pyspark运行环境?
最近公司计算有用到Spark,就简单尝试了解了一下如何快速配置环境。 Docker 安装 安装jupyter/pyspark-notebook docker run -itd --name jpspark -p 8888:8888 -p 4040:4040 -v /home/emperinter/spark:/home/jovyan/work --user root -e NB_GID=100 -e GRANT_SUDO=yes jupyter/pyspark-notebook:latest 说明 8888对应jupyter地址 4040对......