Spark学习笔记—Spark工作机制

上传:零落成泥23875 浏览: 31 推荐: 0 文件:PDF 大小:822.5KB 上传时间:2021-01-31 09:01:35 版权申诉
一.Spark执行机制 1.执行机制总览 Spark应用提交后经历一系列转变,最后成为task在各个节点上执行。 RDD的Action算子触发job的提交,提交到Spark的Job生成RDD DAG,由DAGScheduler转换为Stage DAG,每个Stage中产生相应的Task集合,TaskScheduler将任务分发到Executor执行。每个任务对应的数据块,使用用户定义的函数进行处理。 2.Spark应用的概念 Spark应用(application)是用户提交的应用程序,执行模式有Local,Standalone,YARN,Mesos。根据Application的Driver
上传资源
用户评论