Hadoop-Spark 7周完全实战视频教程 33集Spark精讲视频教程 徐老师大数据Spark篇
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。├<徐老师大数据-Spark1>
│ ├徐老师大数据-02.Spark预编译版本下载安装与启动.mp4
│ ├徐老师大数据-01.Spark简介.mp4
│ ├徐老师大数据-03.Spark体验shell操作与wc操作与RDD介绍.mp4
│ ├徐老师大数据-04.Spark通过Maven进行源码编译安装.mp4
│ ├徐老师大数据-05.Spark搭建Maven本地仓库服务器.mp4
│ └徐老师大数据-06.Spark通过本地Maven仓库服务器进行编译以及进行描述文件的设置.mp4
├<徐老师大数据-Spark2>
│ ├徐老师大数据-07.Spark官方doc的宏观描述和优势说明.mp4
│ ├徐老师大数据-08.Spark独立集群模式部署和启动.mp4
│ ├徐老师大数据-09.Spark Master和Worker的webui查看以及FIFO作业调度讲解.mp4
│ ├徐老师大数据-10.Spark独立集群模式端口修改.mp4
│ └徐老师大数据-11.Spark shell应用于addFile.mp4
├<徐老师大数据-Spark3>
│ ├徐老师大数据-12.Spark程序build的宏观介绍.mp4
│ ├徐老师大数据-13.通过交互模式初始化Maven项目.mp4
│ ├徐老师大数据-14.通过参数指定方式直接初始化Maven项目.mp4
│ ├徐老师大数据-15.准备java源文件到自己的源码包中.mp4
│ └徐老师大数据-16.设置pom.xml文件依赖插件以及与自由仓库目录树的对应关系.mp4
├<徐老师大数据-Spark4>
│ ├徐老师大数据-17.使用mvn package指令进行编译并进行打包与自由仓库目录树的对应关系 1.mp4
│ ├徐老师大数据-18.使用java指令添加spark类库运行Spark程序.mp4
│ ├徐老师大数据-19.使用maven的exec执行插件运行java程序.mp4
│ ├徐老师大数据-20.配置eclipse的maven插件使用本地maven仓库服务器.mp4
│ └徐老师大数据-21.eclipse之下maven项目的配置编译运行.mp4
├<徐老师大数据-Spark5>
│ ├徐老师大数据-22.eclipse之Scala插件的卸载与安装.mp4
│ ├徐老师大数据-23.eclipse下构建Scala程序以及运行.mp4
│ ├徐老师大数据-24.通过Scalac命令手动编译scala程序并执行.mp4
│ ├徐老师大数据-25.命令行下通过maven编译运行Scala程序.mp4
│ └徐老师大数据-26.eclipse下通过maven-scala插件进行Spark(Scala版)应用的开发.mp4
├<徐老师大数据-Spark6>
│ ├徐老师大数据-27.创建SparkContext简介与环境准备.mp4
│ ├徐老师大数据-28.使用Scala创建SparkContext对象以及conf配置和调试.mp4
│ ├徐老师大数据-29.使用Java创建SparkContext对象以及元数据介绍.mp4
│ ├徐老师大数据-30.使用Java创建Rdd对象并在eclipse运行.mp4
│ └徐老师大数据-31.使用Scala创建Rdd对象并在eclipse调试分布式应用.mp4
├<徐老师大数据-Spark7>
│ ├徐老师大数据-32.addFile方法的使用与常见错误.mp4
│ └徐老师大数据-33.flatMap函数处理csv文件进行扁平化RDD处理.mp4
相关资源