技术标签: spark spark launcher Spark
在介绍之前,我先附上spark 官方文档地址:
http://spark.apache.org/docs/latest/api/java/org/apache/spark/launcher/package-summary.html
个人源码github地址:
https://github.com/yyijun/framework/tree/master/framework-spark
spark-submit \
--master yarn \
--deploy-mode cluster \
--driver-memory 4g \
--driver-cores 4 \
--num-executors 20 \
--executor-cores 4 \
--executor-memory 10g \
--class com.yyj.train.spark.launcher.TestSparkLauncher \
--conf spark.yarn.jars=hdfs://hadoop01.xxx.xxx.com:8020/trainsparklauncher/jars/*.jar \
--jars $(ls lib/*.jar| tr '\n' ',') \
lib/ train-spark-1.0.0.jar
--conf spark.yarn.jars:提交算法到yarn集群时算法依赖spark安装包lib目录下的jar包,如果不指定,则每次启动任务都会先上传相关依赖包,耗时严重;
--jars:算法依赖的相关包,spark standalone模式、yarn模式都有用,多个依赖包用逗号”,”分隔;
val spark = SparkSession
.builder
.appName("TestSparkLauncher")
.master("yarn")
.config("deploy.mode", "cluster")
.config("spark.yarn.jars", "hdfs://hadoop01.xxx.xxx.com:8020/trainsparklauncher/jars/*.jar")
.config("spark.sql.warehouse.dir", "/user/hive/warehouse")
.enableHiveSupport()
.getOrCreate()
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-yarn_2.11</artifactId>
<version>2.1.0</version>
</dependency>
1、从大数据平台下载hadoop相关的xml配置文件:
core-site.xml:必须;
hdfs-site.xml:必须;
hive-site.xml:提交的算法里面用到spark on hive时需要此文件;
yarn-site.xml:提交算法到yarn时必须要此文件;
2、准备自己的算法包,这里对应替换为自己的算法包:
train-spark-1.0.0.jar和train-common-1.0.0.jar
3、上传spark安装目录下jars目录下相关的jar包到hdfs:hadoop fs –put –f /opt/cloudera/parcels/SPARK2/lib/spark2/jars /hdfs目录
测试提交算法
package com.yyj.framework.spark.launcher;
import java.io.File;
import java.util.HashMap;
import java.util.Map;
/**
* Created by yangyijun on 2019/5/20.
* 提交spark算法入口类
*/
public class SparkLauncherMain {
public static void main(String[] args) {
System.out.println("starting...");
String confPath = "/Users/yyj/workspace/alg/src/main/resources";
System.out.println("confPath=" + confPath);
//开始构建提交spark时依赖的jars
String rootPath = "/Users/yyj/workspace/alg/lib/";
File file = new File(rootPath);
StringBuilder sb = new StringBuilder();
String[] files = file.list();
for (String s : files) {
if (s.endsWith(".jar")) {
sb.append("hdfs://hadoop01.xxx.xxx.com:8020/user/alg/jars/");
sb.append(s);
sb.append(",");
}
}
String jars = sb.toString();
jars = jars.substring(0, jars.length() - 1);
Map<String, String> conf = new HashMap<>();
conf.put(SparkConfig.DEBUG, "false");
conf.put(SparkConfig.APP_RESOURCE, "hdfs://hadoop01.xxx.xxx.com:8020/user/alg/jars/alg-gs-offline-1.0.0.jar");
conf.put(SparkConfig.MAIN_CLASS, "com.yyj.alg.gs.offline.StartGraphSearchTest");
conf.put(SparkConfig.MASTER, "yarn");
//如果是提交到spark的standalone集群则采用下面的master
//conf.put(SparkConfig.MASTER, "spark://hadoop01.xxx.xxx.com:7077");
conf.put(SparkConfig.APP_NAME, "offline-graph-search");
conf.put(SparkConfig.DEPLOY_MODE, "client");
conf.put(SparkConfig.JARS, jars);
conf.put(SparkConfig.HADOOP_CONF_DIR, confPath);
conf.put(SparkConfig.YARN_CONF_DIR, confPath);
conf.put(SparkConfig.SPARK_HOME, "/Users/yyj/spark2");
conf.put(SparkConfig.DRIVER_MEMORY, "2g");
conf.put(SparkConfig.EXECUTOR_CORES, "2");
conf.put(SparkConfig.EXECUTOR_MEMORY, "2g");
conf.put(SparkConfig.SPARK_YARN_JARS, "hdfs://hadoop01.xxx.xxx.com:8020/user/alg/jars/*.jar");
conf.put(SparkConfig.APP_ARGS, "params");
SparkActionLauncher launcher = new SparkActionLauncher(conf);
boolean result = launcher.waitForCompletion();
System.out.println("============result=" + result);
}
}
构造SparkLauncher对象,配置Spark提交算法相关参数及说明
private SparkLauncher createSparkLauncher() {
logger.info("actionConfig:\n" + JSON.toJSONString(conf, true));
this.debug = Boolean.parseBoolean(conf.get(SparkConfig.DEBUG));
Map<String, String> env = new HashMap<>();
//配置hadoop的xml文件本地路径
env.put(SparkConfig.HADOOP_CONF_DIR, conf.get(SparkConfig.HADOOP_CONF_DIR));
//配置yarn的xml文件本地路径
env.put(SparkConfig.YARN_CONF_DIR, conf.get(SparkConfig.HADOOP_CONF_DIR));
SparkLauncher launcher = new SparkLauncher(env);
//设置算法入口类所在的jar包本地路径
launcher.setAppResource(conf.get(SparkConfig.APP_RESOURCE));
//设置算法入口类保证包名称及类名,例:com.yyj.train.spark.launcher.TestSparkLauncher
launcher.setMainClass(conf.get(SparkConfig.MAIN_CLASS));
//设置集群的master地址:yarn/spark standalone的master地址,例:spark://hadoop01.xxx.xxx.com:7077
launcher.setMaster(conf.get(SparkConfig.MASTER));
//设置部署模式:cluster(集群模式)/client(客户端模式)
launcher.setDeployMode(conf.get(SparkConfig.DEPLOY_MODE));
//设置算法依赖的包的本地路径,多个jar包用逗号","隔开,如果是spark on yarn只需要把核心算法包放这里即可,
// spark相关的依赖包可以预先上传到hdfs并通过 spark.yarn.jars参数指定;
// 如果是spark standalone则需要把所有依赖的jar全部放在这里
launcher.addJar(conf.get(SparkConfig.JARS));
//设置应用的名称
launcher.setAppName(conf.get(SparkConfig.APP_NAME));
//设置spark客户端安装包的home目录,提交算法时需要借助bin目录下的spark-submit脚本
launcher.setSparkHome(conf.get(SparkConfig.SPARK_HOME));
//driver的内存设置
launcher.addSparkArg(SparkConfig.DRIVER_MEMORY, conf.getOrDefault(SparkConfig.DRIVER_MEMORY, "4g"));
//driver的CPU核数设置
launcher.addSparkArg(SparkConfig.DRIVER_CORES, conf.getOrDefault(SparkConfig.DRIVER_CORES, "2"));
//启动executor个数
launcher.addSparkArg(SparkConfig.NUM_EXECUTOR, conf.getOrDefault(SparkConfig.NUM_EXECUTOR, "30"));
//每个executor的CPU核数
launcher.addSparkArg(SparkConfig.EXECUTOR_CORES, conf.getOrDefault(SparkConfig.EXECUTOR_CORES, "4"));
//每个executor的内存大小
launcher.addSparkArg(SparkConfig.EXECUTOR_MEMORY, conf.getOrDefault(SparkConfig.EXECUTOR_MEMORY, "4g"));
String sparkYarnJars = conf.get(SparkConfig.SPARK_YARN_JARS);
if (StringUtils.isNotBlank(sparkYarnJars)) {
//如果是yarn的cluster模式需要通过此参数指定算法所有依赖包在hdfs上的路径
launcher.setConf(SparkConfig.SPARK_YARN_JARS, conf.get(SparkConfig.SPARK_YARN_JARS));
}
//设置算法入口参数
launcher.addAppArgs(new String[]{conf.get(SparkConfig.APP_ARGS)});
return launcher;
}
准spark安装包,用于提交spark算法的客户端,因为提交算法的时候需要用到Spark的home目录下的bin/spark-submit脚本
重命名conf目录下的spark-env.sh脚本,否则会包如下的错误。原因是spark-env.sh里面配置了大数据平台上的路径,而在提交算法的客户端机器没有对应路径
debug模式提交或者非debug模式
/**
* Submit spark application to hadoop cluster and wait for completion.
*
* @return
*/
public boolean waitForCompletion() {
boolean success = false;
try {
SparkLauncher launcher = this.createSparkLauncher();
if (debug) {
Process process = launcher.launch();
// Get Spark driver log
new Thread(new ISRRunnable(process.getErrorStream())).start();
new Thread(new ISRRunnable(process.getInputStream())).start();
int exitCode = process.waitFor();
System.out.println(exitCode);
success = exitCode == 0 ? true : false;
} else {
appMonitor = launcher.setVerbose(true).startApplication();
success = applicationMonitor();
}
} catch (Exception e) {
logger.error(e);
}
return success;
}
非debug模式提交时,控制台获取处理结果信息
///
// private functions
///
private boolean applicationMonitor() {
appMonitor.addListener(new SparkAppHandle.Listener() {
@Override
public void stateChanged(SparkAppHandle handle) {
logger.info("****************************");
logger.info("State Changed [state={0}]", handle.getState());
logger.info("AppId={0}", handle.getAppId());
}
@Override
public void infoChanged(SparkAppHandle handle) {
}
});
while (!isCompleted(appMonitor.getState())) {
try {
Thread.sleep(3000L);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
boolean success = appMonitor.getState() == SparkAppHandle.State.FINISHED;
return success;
}
private boolean isCompleted(SparkAppHandle.State state) {
switch (state) {
case FINISHED:
return true;
case FAILED:
return true;
case KILLED:
return true;
case LOST:
return true;
}
return false;
}
可以从处理结果中获取到app ID,用于杀掉yarn任务时使用
//访问URL:
http://<rm http address:port>/ws/v1/cluster/apps/{appID}
//例子
http://localhost:8088/ws/v1/cluster/apps/application15617064805542301
访问详情地址,返回数据格式如下:
"id": "application15617064805542301",--任务ID
"user": "haizhi",--提交任务的用户名称
"name": "TestSparkLauncher",--应用名称
"queue": "root.users.haizhi",--提交队列
"state": "FINISHED",--任务状态
"finalStatus": "SUCCEEDED",--最终状态
"progress": 100,--任务进度
"trackingUI": "History",
"trackingUrl": "http://hadoop01.xx.xxx.com:18088/proxy/application15617064805542301/A",
"diagnostics":"",--任务出错时的主要错误信息
"clusterId": 1561706480554,
"applicationType": "SPARK",--任务类型
"startedTime": 1562808570464,--任务开始时间,单位毫秒
"finishedTime": 1562808621348,--任务结束时间,单位毫秒
"elapsedTime": 50884,--任务耗时,毫秒
"amContainerLogs": "http://hadoop01.xx.xxx.com:8042/node/containerlogs/container15617064805542301_01_000001/haizhi",--任务详细日志
"amHostHttpAddress": "hadoop01.xx.xxx.com:8042",
"memorySeconds": 198648,--任务分配到的内存数,单位MB
"vcoreSeconds": 145,--任务分配到的CPU核数
"logAggregationStatus": "SUCCEEDED"
请求URL:http://<rm http address:port>/ws/v1/cluster/apps/{appid}/state
请求方式:put
请求参数: { "state": "KILLED" }
例:
请求URL:http://192.168.1.3:18088/ws/v1/cluster/apps/application15617064805542302/state
请求方式:put
请求参数: { "state": "KILLED" }
文章浏览阅读3.3k次,点赞7次,收藏39次。CPU 执行现行程序的过程中,出现某些急需处理的异常情况或特殊请求,CPU暂时中止现行程序,而转去对异常情况或特殊请求进行处理,处理完毕后再返回现行程序断点处,继续执行原程序。void 函数名(void) interrupt n using m {中断函数内容 //尽量精简 }编译器会把该函数转化为中断函数,表示中断源编号为n,中断源对应一个中断入口地址,而中断入口地址的内容为跳转指令,转入本函数。using m用于指定本函数内部使用的工作寄存器组,m取值为0~3。该修饰符可省略,由编译器自动分配。_51单片机中断篇
文章浏览阅读396次。项目经验(案例一)项目时间:2009-10 - 2009-12项目名称:中驰别克信息化管理整改完善项目描述:项目介绍一,建立中驰别克硬件档案(PC,服务器,网络设备,办公设备等)二,建立中驰别克软件档案(每台PC安装的软件,财务,HR,OA,专用系统等)三,能过建立的档案对中驰别克信息化办公环境优化(合理使用ADSL宽带资源,对域进行调整,对文件服务器进行优化,对共享打印机进行调整)四,优化完成后..._网络工程师项目经历
文章浏览阅读1k次,点赞31次,收藏30次。LVS:Linux Virtual Server,负载调度器,内核集成, 阿里的四层SLB(Server Load Balance)是基于LVS+keepalived实现。NATTUNDR优点端口转换WAN性能最好缺点性能瓶颈服务器支持隧道模式不支持跨网段真实服务器要求anyTunneling支持网络private(私网)LAN/WAN(私网/公网)LAN(私网)真实服务器数量High (100)High (100)真实服务器网关lvs内网地址。
文章浏览阅读899次。https://www.toutiao.com/a6713171323893318151/作者 | 黄小邪/言有三编辑 | 黄小邪/言有三图像预处理算法的好坏直接关系到后续图像处理的效果,如图像分割、目标识别、边缘提取等,为了获取高质量的数字图像,很多时候都需要对图像进行降噪处理,尽可能的保持原始信息完整性(即主要特征)的同时,又能够去除信号中无用的信息。并且,降噪还引出了一..._噪声很大的图片可以降噪吗
文章浏览阅读152次。目录谨慎地覆盖cloneCloneable接口并没有包含任何方法,那么它到底有什么作用呢?Object类中的clone()方法如何重写好一个clone()方法1.对于数组类型我可以采用clone()方法的递归2.如果对象是非数组,建议提供拷贝构造器(copy constructor)或者拷贝工厂(copy factory)3.如果为线程安全的类重写clone()方法4.如果为需要被继承的类重写clone()方法总结谨慎地覆盖cloneCloneable接口地目的是作为对象的一个mixin接口(详见第20_为继承设计类有两种选择,但无论选择其中的
文章浏览阅读958次,点赞21次,收藏24次。今天学长向大家分享一个毕业设计项目基于协同过滤的电影推荐系统项目运行效果:项目获取:https://gitee.com/assistant-a/project-sharing21世纪是信息化时代,随着信息技术和网络技术的发展,信息化已经渗透到人们日常生活的各个方面,人们可以随时随地浏览到海量信息,但是这些大量信息千差万别,需要费事费力的筛选、甄别自己喜欢或者感兴趣的数据。对网络电影服务来说,需要用到优秀的协同过滤推荐功能去辅助整个系统。系统基于Python技术,使用UML建模,采用Django框架组合进行设
文章浏览阅读614次。10G SFP+光模块被广泛应用于10G以太网中,在下一代移动网络、固定接入网、城域网、以及数据中心等领域非常常见。下面易天光通信(ETU-LINK)就为大家一一盘点下10G SFP+光模块都有哪些吧。一、10G SFP+双纤光模块10G SFP+双纤光模块是一种常规的光模块,有两个LC光纤接口,传输距离最远可达100公里,常用的10G SFP+双纤光模块有10G SFP+ SR、10G SFP+ LR,其中10G SFP+ SR的传输距离为300米,10G SFP+ LR的传输距离为10公里。_10g sfp+
文章浏览阅读239次。该项目含有源码、文档、程序、数据库、配套开发软件、软件安装教程。欢迎交流项目运行环境配置:项目技术:Express框架 + Node.js+ Vue 等等组成,B/S模式 +Vscode管理+前后端分离等等。环境需要1.运行环境:最好是Nodejs最新版,我们在这个版本上开发的。其他版本理论上也可以。2.开发环境:Vscode或HbuilderX都可以。推荐HbuilderX;3.mysql环境:建议是用5.7版本均可4.硬件环境:windows 7/8/10 1G内存以上;_基于vue美食网站源码
文章浏览阅读62次。oldwain随便写@hexun链接:http://oldwain.blog.hexun.com/ ...
文章浏览阅读843次,点赞16次,收藏22次。用这个工具扫描其它网站时,要注意法律问题,同时也比较慢,所以我们以之前写的登录页面为例子扫描。_sqlmap拖库
文章浏览阅读1.5w次,点赞5次,收藏38次。Origin也能玩转图片的拼接组合排版谭编(华南师范大学学报编辑部,广州 510631)通常,我们利用Origin软件能非常快捷地绘制出一张单独的绘图。但是,我们在论文的撰写过程中,经常需要将多种科学实验图片(电镜图、示意图、曲线图等)组合在一张图片中。大多数人都是采用PPT、Adobe Illustrator、CorelDraw等软件对多种不同类型的图进行拼接的。那么,利用Origin软件能否实..._origin怎么把三个图做到一张图上
文章浏览阅读4.2k次,点赞4次,收藏51次。51单片机智能电风扇控制系统仿真设计( proteus仿真+程序+原理图+报告+讲解视频)仿真图proteus7.8及以上 程序编译器:keil 4/keil 5 编程语言:C语言 设计编号:S0042。_电风扇模拟控制系统设计