首先要使各主机ssh免密码登陆
# * 1在master生成密钥对
ssh-keygen -t rsa -P ''
在~/.ssh下生成 id_rsa和id_rsa.pub
# 1把id_rsa* 2把id_rsa.pub复制到slave1 的~/.ssh/authorized_keys文件里
scp ~/.ssh/id_rsa.pub root@slave:/root/id_rsa.pub
chmod 600 .ssh/authorized_keys
# * 3回到master,测试登陆slave <big>环境配置</big> 编辑文件 /etc/profile 加入以下内容 #JAVA VARIABLES START export JAVA_HOME=/opt/jdk1.7.0_79 export PATH=$PATH:$JAVA_HOME/bin #JAVA VARIABLES END #SCALA VARIABLES START export SCALA_HOME=/opt/scala-2.11.7 export PATH=$PATH:$SCALA_HOME/bin #SCALA VARIABLES END #SPARK VARIABLES START export SPARK_HOME=/opt/spark-2.0.0-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin #SPARK VARIABLES END 然后刷新系统配置: source /etc/profile 验证配置生效: java -version scala -version 执行以上命令应显示正确的版本信息。 进入spark的conf目录 cd/opt/spark-2.0.0-bin-hadoop2.6/conf cp spark-env.sh.template spark-env.sh 编辑spark-env.sh文件,在最后加入: export SCALA_HOME=/opt/scala-2.11.7 export JAVA_HOME=/opt/jdk1.7.0_79 export SPARK_MASTER_IP=localhost export SPARK_WORKER_MEMORY=1024m export master=spark://localhost 7070 编辑slaves文件,将slave加入列表(IP也可以) slave1 slave2 slave3 === 启动集群 === 进入spark下的sbin目录,执行 ./spart-all.sh 期待集群,可在192.168.0.71:8080看到spark已经启动。 sbin目录下的其它命令 stop-all.sh 停止所有进程 start-master.sh 启动master start-slaves.sh 启动所有slave (slaves文件中指定) start-salve.sh 启动单独slave(在执行的主机上) stop-master.sh 停止master stop-slaves.sh 停止所有slaves