Spark Core:执行Spark任务的两个工具:spark-submit与spark-shell

1.spark-submit:用于提交Spark任务

(1)举例:spark 自带的实例程序。

/opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars中有Spark自带的实例程序。

蒙特卡洛求PI(圆周率)

1
2
3
cd /opt/module/spark-2.1.0-bin-hadoop2.7

bin/spark-submit --master spark://hadoop1:7077 --class org.apache.spark.examples.SparkPi /opt/module/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 500

启动命令
执行结果

2.Spark-shell

(1)概念:相当于REPL工具,命令行工具,作为一个独立的Application运行
(2)两种运行模式:
(a)本地模式:不需要连接到Spark集群,在本地直接运行,用于测试

启动:

1
2
//后面不写任何参数,代表本地模式
bin/spark-shell

本地模式
local代表本地模式

(b)集群模式

命令:

1
bin/spark-shell --master spark://hadoop1:7077

集群模式

特殊说明:

  • Spark session(spark) : Spark2.0以后提供的,利用session可以访问所有spark组件(core sql..)
  • spark context(sc) 两个对象,可以直接使用
打赏
  • 版权声明: 本博客所有文章除特别声明外,著作权归作者所有。转载请注明出处!
  • Copyrights © 2015-2021 Movle
  • 访问人数: | 浏览次数:

请我喝杯咖啡吧~

支付宝
微信