Spark底层内存计算框架与Spark RDD核心深入解读 Spark云计算架构师级别开发实战课程

何谓Spark RDD?

 

Spark 的核心是建立在统一的抽象弹性分布式数据集(Resiliennt Distributed Datasets,RDD)之上的,这使得 Spark 的各个组件可以无缝地进行集成,能够在同一个应用程序中完成大数据处理。本节将对 RDD 的基本概念及与 RDD 相关的概念做基本介绍。

 

===============课程目录===============

 

├─(1) 01、spark之内存计算框架–课程内容介绍.mp4

├─(2) 02、spark之内存计算框架–通过IDEA工具开发spark的入门案例–构建maven工程.mp4

├─(3) 03、spark之内存计算框架–通过IDEA工具开发spark的入门案例–代码开发.mp4

├─(4) 04、spark之内存计算框架–程序打成jar包提交到spark集群中运行.mp4

├─(5) 05、spark之内存计算框架–spark底层编程抽象之RDD是什么.mp4

├─(6) 06、spark之内存计算框架–spark底层编程抽象之RDD的五大特性.mp4

├─(7) 07、基于单词统计案例来深度剖析RDD的五大特性.mp4

├─(8) 08、spark底层核心RDD的算子操作分类.mp4

├─(9) 09、spark底层核心RDD的依赖关系.mp4

├─(10) 10、spark底层核心RDD的缓存机制.mp4

├─(11) 11、DAG有向无环图的构建和划分stage.mp4

├─(12) 12、基于wordcount程序剖析spark任务的提交、划分、调度流程.mp4

├─(13) 13、通过spark开发实现点击流日志分析案例.mp4

├─(14) 14、通过spark开发实现ip归属地查询案例–需求介绍.mp4

├─(15) 15、通过spark开发实现ip归属地查询案例–代码开发.mp4

1、本站所有文档、视频、书籍等资料均由网友分享,本站只负责收集不承担任何技术及版权问题。
2、如本帖侵犯到任何版权问题,请立即告知本站,本站将及时予与删除下载链接并致以最深的歉意。
3、本帖部分内容转载自其它媒体,但并不代表本站赞同其观点和对其真实性负责。
4、一经注册为本站会员,一律视为同意网站规定,本站管理员及版主有权禁止违规用户。
5、管理员有权不事先通知发贴者而删除本文。

课程网 » Spark底层内存计算框架与Spark RDD核心深入解读 Spark云计算架构师级别开发实战课程