网站首页 > 开源技术 正文
Apache DolphinScheduler是一个分布式去中心化,易扩展的可视化DAG工作流任务调度系统。致力于解决数据处理流程中错综复杂的依赖关系,使调度系统在数据处理流程中开箱即用。
一、快速上手
1、使用admin用户登录,密码是dophinscheduler123,创建队列。
2、创建租户,创建租户前要确保HDFS的根目录下所属者都是hdfs,与DS配置文件保持一致,否则会创建失败。
3、创建普通用户。
4、创建告警组。
5、创建token令牌。
6、退出账号,切换test用户。
7、创建项目。
8、点击项目名称,进入项目首页,创建工作流。
9、创建三个简单的工作任务,执行简单输出,输出hello world。
10、选中箭头,将节点进行连接,建立任务间的执行顺序,点击保存,设置DAG图名称。
11、测试,上线,需要先点击上线,再点击执行,执行前需要配置一些参数。
12、执行完成之后,查看是否成功和日志。
二、资源中心
资源中心用于上传文件和udf函数,所有上传的文件和资源都会被存储到hdfs上(在安装时配置了相关参数),将jar包上传上去,用于后面测试。
三、Spark节点
1、创建hdfs(需要和hdf路径上的owner对应)租户。
2、创建atguigu用户。
3、切换成atguigu用户,在项目管理中新创建项目test-project。
4、在新建的项目中创建新的工作流,在工作流创建画布上选择spark节点图标,创建spark任务,使用我们事先已经上传到资源中心的jar包,配置必要的参数。
5、以此类推,分别创建出dwd层、dws层和ads层的任务流,并使用箭头连接,确定三个任务的先后执行顺序。
6、上线、执行,进行测试。
7、执行完成后,可以查看甘特图和日志等信息。
四、创建HIve数据源
1、点击数据源中心,点击创建数据源。
2、选择数据源类型是HIVE/IMPALA,并配置必要参数。
了解更多内容:
猜你喜欢
- 2024-09-12 盘点 12 月份爆火的 GitHub 项目(github排行榜)
- 2024-09-12 DolphinScheduler海豚调度器删除历史日志问题
- 2024-09-12 数据质量管理(数据质量管理平台目前支持通过扫描)
- 2024-09-12 dolphin scheduler多数据库存储(hibernate多数据库支持)
- 2024-09-12 海豚DolphinScheduler系统调度操作分析
- 2024-09-12 源码解析-- 如何做到不同Task的日志输出到不同的日志文件
- 2024-09-12 运维实战:DolphinScheduler 生产环境升级
- 2024-09-12 任务调度工具(任务调度工具怎么用)
- 2024-09-12 dolphinscheduler集成数据质量任务
- 2024-09-12 源码解析--海豚调度MasterServer流程执行过程分析
你 发表评论:
欢迎- 最近发表
- 标签列表
-
- jdk (81)
- putty (66)
- rufus (78)
- 内网穿透 (89)
- okhttp (70)
- powertoys (74)
- windowsterminal (81)
- netcat (65)
- ghostscript (65)
- veracrypt (65)
- asp.netcore (70)
- wrk (67)
- aspose.words (80)
- itk (80)
- ajaxfileupload.js (66)
- sqlhelper (67)
- express.js (67)
- phpmailer (67)
- xjar (70)
- redisclient (78)
- wakeonlan (66)
- tinygo (85)
- startbbs (72)
- webftp (82)
- vsvim (79)
本文暂时没有评论,来添加一个吧(●'◡'●)