Spark底层内存计算框架与Spark RDD核心深入解读 Spark云计算架构师级别开发实战课程
何谓Spark RDD?

Spark 的核心是建立在统一的抽象弹性分布式数据集(Resiliennt Distributed Datasets,RDD)之上的,这使得 Spark 的各个组件可以无缝地进行集成,能够在同一个应用程序中完成大数据处理。本节将对 RDD 的基本概念及与 RDD 相关的概念做基本介绍。

===============课程目录===============

├─(1) 01、spark之内存计算框架–课程内容介绍.mp4
├─(2) 02、spark之内存计算框架–通过IDEA工具开发spark的入门案例–构建maven工程.mp4
├─(3) 03、spark之内存计算框架–通过IDEA工具开发spark的入门案例–代码开发.mp4
├─(4) 04、spark之内存计算框架–程序打成jar包提交到spark集群中运行.mp4
├─(5) 05、spark之内存计算框架–spark底层编程抽象之RDD是什么.mp4
├─(6) 06、spark之内存计算框架–spark底层编程抽象之RDD的五大特性.mp4
├─(7) 07、基于单词统计案例来深度剖析RDD的五大特性.mp4
├─(8) 08、spark底层核心RDD的算子操作分类.mp4
├─(9) 09、spark底层核心RDD的依赖关系.mp4
├─(10) 10、spark底层核心RDD的缓存机制.mp4
├─(11) 11、DAG有向无环图的构建和划分stage.mp4
├─(12) 12、基于wordcount程序剖析spark任务的提交、划分、调度流程.mp4
├─(13) 13、通过spark开发实现点击流日志分析案例.mp4
├─(14) 14、通过spark开发实现ip归属地查询案例–需求介绍.mp4
├─(15) 15、通过spark开发实现ip归属地查询案例–代码开发.mp4

资源下载
下载价格1
VIP免费
原文链接:https://www.jocat.cn/archives/61822,转载请注明出处。
0
显示验证码
没有账号?注册  忘记密码?