零基础大数据就业课程(零到大神一“部”之遥)

零基础大数据就业课程

默认教学计划
(5人评价)
价格 ¥4800.00
教学计划
课程介绍

本套课程是风舞烟老师团队历时四个月打造的一套完整系列大数据就业课程!从零到大神,您只差这一‘部’之遥!

 

官方唯一指定风舞烟大数据课程VIP答疑交流QQ群:651173191(付费学员请联系网站客服申请入群)

 

一、课程大纲:
课程分2大模块,14个课程,65章,共计856课时!

一、Java模块课程
课程一、【大数据必知必会】- Java负基础扫盲篇
01、Java基础语法、变量、数据类型和运算符
02、选择结构
03、循环结构
04、循环结构进阶
05、数组

 

课程二、【大数据必知必会】- Java OOP面向对象编程
06、类和对象、方法
07、项目人机猜拳
08、项目DVD管理系统
09、继承、封装、多态
10、多态、接口
11、项目实战:劲舞团
12、异常、日期类、集合、泛型集合
13、Java IO流技术 & XML操作


课程三、【大数据必知必会】- MySQL数据库开发
14、MySQL数据库--初始MySQL
15、MySQL数据库--SQL进阶
16、MySQL数据库--多表查询及存储过程

 

课程四、【大数据必知必会】- Java核心编程
17、Java中利用JDBC操作数据库
18、项目案例:基于JDBC+MySQL实现图书管理系统
19、多线程编程基础
20、多线程高级编程
21、网络编程

 

课程五、【大数据必知必会】- Java高级特性
22、Java高级特性-反射、序列化
23、项目案例(5):即时聊天系统
24、Git版本控制系统、Maven项目管理构建工具
25、项目实战:小型商品进销存管理系统

 

二、大数据模块课程
课程六、【大数据开发基础】- LINUX 课程
26、环境及基本操作
27、Linux 常见命令的使用
28、Linux 软件安装及Shell编程


课程七、【大数据分布式基础架构】- HADOOP详解
29、Hadoop介绍及伪分布式环境
30、MapReduce编程及运行流程
31、网站案例分析及Hadoop分布式集群环境
32、MapReduceShuffle及Zookeeper框架
33、HDFS HA及二次排序
34、YARN 资源管理及MapReduce Join

 

课程八、【大数据仓库】- HIVE 详解
35、Hive 基本架构及环境部署
36、Hive 常用DML、UDF及连接方式
37、Sqoop Sqoop及用户行为分析案例
38、Hive 复杂用户行为案例分析及优化
39、Zeus 任务资源调度工具

 

课程九、【大数据分布式开源数据】- HBASE从入门到精通
40、Hbase  基本使用及存储设计
41、Hbase  企业应用及与MapReduce集成
42、案例:Hbase的设计及企业优化

 

课程十、【大数据可视化技术】- Echarts详解
43、大数据可视化技术:可视化技术概述与Echarts入门
44、大数据可视化技术:Echarts图表详解
45、大数据可视化技术:Echarts高级与综合案例实战

 

课程十一、【HADOOP 项目实战】
46、大数据离线项目:企业大数据项目业务及设计
47、大数据离线项目:数据采集框架Flume
48、大数据离线项目:Nginx+Flume实现数据采集
49、大数据离线项目:ETL的业务分析及实现(一)
50、大数据离线项目:ETL的业务分析及实现(二)
51、大数据离线项目:数据分析的思路及代码实现
52、大数据离线项目:Hourly分析及可视化展示

 

课程十二、【Spark从入门到上手实战】 - Spark课程
53、SPARK 数据分析:SCALA编程(一)
54、SPARK 数据分析:SCALA编程(二)
55、SPARK 数据分析:Spark Core(一)
56、SPARK 数据分析:Spark Core(二)
57、SPARK 数据分析:Spark SQL
58、SPARK 数据分析:Spark Streaming及Kafka
59、SPARK 数据分析:基于Java和Python的Spark编程

 

课程十三、【实时流式计算框架】- Storm技术详解
60、storm:架构、环境及使用
61、storm:Trident使用
62、storm:电商实时销售统计

 

课程十四、【大数据企业平台应用】
63、高薪面试:企业大数据平台(一)
64、高薪面试:企业大数据平台(二)
65、高薪面试:大数据面试


课程详细目录:

第1章:Java基础语法、变量、数据类型和运算符
1.大纲 
2.Java光速入门引言 
3.Java简介 
4.Java程序开发工具及环境
5.开发Java程序步骤
6.使用记事本开发Java程序
7.从控制台输出信息
8.使用Eclipse开发Java程序
9.总结
10.变量数据类型和运算符前言 
11.数据类型 
12.变量 
13.运算符 
14.类型转换 
15.总结及作业

第2章:选择结构
16.选择结构前言
17.boolean类型 
18.关系运算符
19.选择结构简介 
20.单分支结构 
21.复合条件选择结构
22.双分支选择结构
23.三目运算符 
24.基本if选择结构小结 
25.多重if选择结构
26.嵌套if选择结构 
27.switch选择结构 
28.总结及作业

第3章:循环结构
29.循环结构前言
30.为什么需要循环
31.循环结构简介
32.while循环结构
33.程序调试
34.while小结
35.do-while循环
36.dowhile小结
37.for循环结构 
38.for小结 
39.break语句
40.continue语句
41.循环总结 

第4章:循环结构进阶
42.循环结构进阶前言 
43.为什么使用二重循环及二重循环概念
44.如何使用二重循环
45.在二重循环中使用continue 
46.在二重循环中使用break 
47.二重循环补充案例 
48.二重循环总结及作业

第5章:数组
49.数组前言
50.学习数组的原因及数组的概念
51.如何使用数组
52.数组应用-1
53.数组应用-2 
54.数组应用-3
55.数组应用-4 
56.一维数组小结
57.二维数组简介及定义
58.遍历和使用二维数组 
59.数组总结

第6章:类和对象、方法
60.类对象方法导入
61.对象
62.类的创建和对象的创建-1 
63.类的创建和对象的创建-2 
64.课堂练习1和2
65.课堂练习3和4
66.类小结
67.类的方法-1
68.类的方法-2
69.成员变量和局部变量
70.有参方法-1 
71.有参方法-2 
72.有参方法小结
73.本章总结

第7章:项目人机猜拳
74.阶段练习1
75.阶段练习2 
76.阶段练习3
77.阶段练习4 
78.阶段练习5及6

第8章:项目DVD管理系统
79.阶段练习1
80.阶段练习2 
81,阶段练习3 
82.阶段练习4
83.阶段练习5 
84.阶段练习6 
85.阶段练习7 

第9章:继承、封装、多态
86.引言
87.封装
88.构造方法
89.重载 
90.继承-1
91.继承-2 
92.继承-3 
93.继承-4 
94.抽象类-1
95.抽象类-2 
96.抽象类-3 
97.重写
98.综合案例-1 
99.综合案例-2 

第10章:多态、接口
100.为什么使用多态
101.多态的概念及使用
102.为什么使用接口及接口的概念 
103.接口的使用

第11章:项目实战:劲舞团
104.项目需求及效果展示
105.第一关:游戏输出字符串设计
106.第二关:各级别游戏参考初始化
107.第三关:玩家闯关
108.第四关:最终闯关结果确认
109.项目总结

第12章:异常、日期类、集合、泛型集合
110.Java中的枚举 
111.Java中的包装类(上)
112.Java中的包装类(下) 
113.Java中的String类详解
114.Java中的StringBuffer类详解
115.Java中的如何操作日期时间 
116.什么是Java中的异常
117.Java中的异常处理(上)
118.Java中的异常处理(下) 
119.实例演示Java中的异常处理 
120.Java异常的分类及throw的异常处理 
121.常见Java集合框架概述 
122.List接口及方法说明 
123.ArrayList及LinkedList详解 
124.实例演示ArrayList及LinkedList的异同
125.Map接口与HashMap 
126.集合的迭代器与泛型集合初探 
127.集合综合实例与练习
128.泛型简介
129.如何定义与调用一个泛型类及泛型方法 
130.泛型类及泛型方法的使用实例
131.如何定义一个泛型集合
132.泛型集合实例_新闻发布系统01
133.泛型集合实例_新闻发布系统02 
134.泛型集合实例_新闻发布系统03 
135.泛型集合之Map接口与HashMap类
136.泛型集合之Map接口与HashMap类的遍历
137.泛型总结

第13章:Java IO流技术 & XML操作
138.本章简介
139.JAVA IO流之Properties类操作环境变量
140.JAVA IO流之Properties类读写
141.JAVA IO流之Properties类读写xml类型配置文件 
142.JAVA IO流之File类操作文件API精讲 
143.JAVA IO流之File类操作目录API精讲
144.JAVA IO流之利用FilenameFilter类实现文件
145.JAVA IO流之利用RandomAccessFile类实现随机文件访问
146.JAVA IO流之体系结构总括
147.JAVA IO流-字符流之利用FileReader类读取数据
148.JAVA IO流-字符流之利用FileWriter类写入数据 
149.JAVA IO流-字符流之利用LineNumberReader行式读取数据并自动编号
150.JAVA IO流-字节流之利用FileInputStream按指定编码读取数据
151.字节流之利用DataInputStream&DataOutputStream操作数据
152.字节流之利用ObjectInputStream&ObjectOutputStream操作数据
153.JAVA IO流-字节流之装饰(包装)流简介 
154.包装流之实例演示字符包装流对文本文件的读写文件操作
155.包装流之实例演示字节包装流对二进制文件的读写操作
156.JAVA IO流小结 
157.JAVA操作XML之总括
158.JAVA操作XML之Dom解析实例演示
159.JAVA操作XML之Sax解析简述
160.JAVA操作XML之Sax解析实例演示
161.JAVA操作XML之Dom与Sax解析的优缺点比较
162.JAVA操作XML小结 
163.安装MySQL

第14章:MySQL数据库--初始MySQL
164.使用CMD登录mysql 
165.数据库数据类型 
166.约束
167.navicat介绍 
168.navicat创建数据库
169.navicat填充数据
170.课后作业介绍
171.新建数据库

第15章:MySQL数据库--SQL进阶
172.创建数据表 
173.insert_into 
174.delete_from 
175.update 
176.select
177.where 
178.orderby 
179.groupby 
180.课后练习 
181.连接查询 
182.子查询 

第16章:MySQL数据库--多表查询及存储过程
183.存储过程
184.课后练习
185.JDBC工作原理
186.JDBC连结MySQL数据库

第17章:Java中利用JDBC操作数据库
187.使用JDBC的Statement对象添加数据
188.使用JDBC的Statement对象修改及删除数据
189.使用JDBC的Statement和ResultSet对象实现数据的查询
190.Staement及ResultSet小结 
191.利用PreparedStaement操作数据 
192.本章总结
193.项目简介
194.数据库的设计与实现
195.项目整体代码框架搭建

第18章:项目案例:基于JDBC+MySQL实现图书管理系统
196.系统通用工具包类的实现 
197.封装系统实体类
198.系统访问层接口的设计 
199.SQLHelp数据访问层工具类
200.封装用户表的数据访问类
201.封装图书表的数据访问类
202.用户管理的业务逻辑层代码实现 
203.图书管理的业务逻辑层代码实现
204.视图功能_实现用户登录权限菜单显示
205.视图功能_实现图书入库操作
206.视图功能_实现图书出库操作
207.视图功能_根据图书的ISBN号进行查询操作
208.视图功能_获取系统所有图书信息
209.本章总结
210.进程与线程的概念及原理简介
211.扩展Thread类实现多线程 
212.通过Runnable接口实现Thread类创建

第19章:多线程编程基础
213.Java多线程Thread与Runnable的区别
214.关于多线程的创建启动的常见问题 
215.线程的生命周期概述
216.线程睡眠(Sleep)方法示例 
217.线程让步(yield)方法示例 
218.线程插队(join)方法示例 
219.线程状态转换小结
220.利用synchronized同步解决多线程冲突问题
221.线程的同步与锁的注意事项
222.线程的静态方法同步
223.线程的死锁现象及注意事项 

第20章:多线程高级编程
224.线程的同步小结 
225.线程的等待、通知模型使用示例1 
226.线程的等待、通知模型使用示例2 
227.线程协作之经典场景:生产者消费者模型
228.线程调度之守护线程
229.Java线程新特性-线程池-固定大小的线程池 
230.Java线程新特性-线程池-单任务线程池
231.Java线程新特性-线程池-可变尺寸的线程池
232.Java线程新特性-线程池-延迟线程池
233.Java线程新特性-线程池-自定义线程池 
234.Java线程新特性-有返回值类型的线程 
235.Java线程新特性-利用锁实现线程防并发操作 
236.Java线程新特性-利用读写锁实现线程防并发操作 
237.Java线程新特性-阻塞队列&阻塞栈
238.本章总结
239.本章目标及任务
240.网络编程理论基础01 
241.网络编程理论基础02 
242.Java网络编程入门_InetAddress类 

第21章:网络编程
243.Java网络编程入门_Url类mp4 
244.编写Socket程序的一般步骤 
245.Socket编程简单示例
246.Socket编程复杂示例 
247.文件传输示例 
248.Socket编程_聊天小程序
249.UDP编程_基于UDP实现的数据通信范例
250.本章总结
251.什么是序列化及为什么需要序列化?
252.seriaVersionUID的作用与动态生成 
253. Java中的二进制序列化反序列化实例演示
254.Java中的利用xStream进行Xml序列化与反序列化实例演示
255.Java中的利用Externalizable接口实现对象的序列化控制

第22章:Java高级特性-反射、序列化
256.Java反射概述
257.Java中如何进行反射操作相关类简介
258.Java反射Class类的使用示例
259.Java反射Constructor类的使用示例
260.Java反射Field类的使用示例 
261.Java反射Method类的使用示例 
262.Java反射综合案例01_通用ToStringUtil类
263.Java反射综合案例02_利用反身实现Java类的反编译
264.Java反射综合案例03_利用反射实现多数据库切换
265.本章小节
266.项目案例:即时聊天系统_项目需求
267.项目案例:即时聊天系统_原理剖析
268.项目案例:即时聊天系统_代码实现_编写服务端代码框架
269.代码实现_服务器端登记客户端线程操作
270.代码实现_服务器端ServerThread初始化输入输出流

第23章:项目案例(5):即时聊天系统
271.代码实现_服务器端向客户端群发消息
272.代码实现_客户端代码框架实现
273.代码实现_客户端向服务器发送消息
274.代码实现_客户端读取服务器消息
275.项目案例_总结
276.本章目标 
277.Git版本控制工具_什么是Git及版本控制的概念
278. Git与SVN的比较
279. Git的下载与安装
280. Git命令代码补全及帮助查看

第24章:Git版本控制系统、Maven项目管理构建工具
281.Git基本全局配置
282.为Git命令配置别名
283.Git基本的工作原理
284.Git实战案例(1)_初始化Git仓库并提交内容
285.Git实战案例(2)_修改本地内容并向本地服务器提交 
286.Git实战案例(3)_演示版本回退操作
287.Git实战案例(4)_演示代码的撤消修改操作
288.Git实战案例(5)_演示文件的删除及还原操作
289. GitHub专题_课题导入
290.GitHub专题_帐号创建
291.为远程数据仓库配置SSH Key
292.Git本地仓库关联远程服务器
293.克隆远程仓库到本地
294.Gihub上如何参与开源项目? 
295.Git总结
296.Maven项目构建工具_Maven简介
297.Maven项目构建工具_Maven基本工作原理
298.Maven安装配置
299.Maven常用命令与实例快速上手
300.Maven基本配置与简单依赖关系
301.Eclipse中Maven插件的安装配置
302.Eclipse中如何创建及导入Maven项目
303.Eclipse中如何运行Maven命令完成自动化构建
304.Maven总结

第25章:项目实战:小型商品进销存管理系统
305.项目实战:小型商品进销存管理系统_项目需求
306.技术分析
307.数据库设计
308.Excel原始数据导入MySQL
309.员工信息管理_员工入职操作
310.员工信息管理_开除与员工加薪操作
311.员工信息管理_复杂嵌套子查询操作
312.员工信息查询_实现员工信息统计分析及分页查询
313.员工信息查询_实战分组、聚合、过滤与排序
314.查询比平均单价高的产品
315.查询哪些客户没有购买记录 
316.查询销售数量最多的产品信息
317.查询销售额最多的产品并扩展复杂多表查询
318.为签单最多的员工做加薪操作
319.订单详细信息展示(六表复杂关联演示)
320.查询采购金额最多的前三名客户(多表关联&嵌套子查询)
321.对客户按订单数量进行排序操作
322.对产品种类统计数量并排序
323.代码实现_实体类编写
324.代码实现_项目框架搭建及ViewModel构建 
325.代码实现_数据访问层代码实现(一) 
326.代码实现_数据访问层代码实现(二) 
327.代码实现_数据访问层代码实现(三)
328.代码实现_业务逻辑层代码实现(一) 
329.代码实现_业务逻辑层代码实现(二) - 副本
330.代码实现_界面层代码实现(一)
331.代码实现_界面层代码实现(二)
332.代码实现_界面层代码实现(三) 
333.代码实现_界面层代码实现(四) 
334.项目总结

第26章:Linux 环境及基本操作
335.Linux的发展及其介绍
336.Linux系统安装的环境准备 
337.Centos6.4的安装过程
338.Linux中主机名的修改 
339. Linux中网络的配置
340.Linux与Windows本地网络映射的配置 
341.远程工具-SecureCRT与FileZilla的使用
342.远程工具-Notepad++与Xmanager的使用 
343.Linux文件系统的目录结构 
344.Linux基本操作命令 
345.Linux文件管理-创建、删除
346.Linux文件管理-复制、剪切、查看
347.Linux用户及用户组管理
348.Linux权限管理 
349. Linux中修改用户及用户组及常见符号
350.文本编辑工具vim的介绍

第27章:Linux 常见命令的使用
351.文本编辑工具vim的常见操作
352.帮助命令man与文件检索命令find的使用
353.visudo的配置及使用讲解
354.Linux中硬盘与存储结构的讲解
355.磁盘管理-创建主分区并挂载可用 
356.磁盘管理-创建逻辑分区并挂载可用 
357. 网络管理及进程管理命令 
358.Linux中的压缩管理 
359.关机与虚拟机的克隆 
360.Linux软件安装-RPM 

第28章:Linux软件安装及Shell编程
361.Linux软件安装-YUM 
362.Shell编程-环境变量与位置变量 
363.Shell编程-预定义变量与自定义变量 
364.Shell编程-通配符与正则表达式
365.Shell编程-逻辑关联符号及数值运算 
366.Shell编程-内置判断表达式及date命令
367.Shell编程-for循环的使用 
368.Shell编程-while循环的使用及read命令
369.Shell编程-if判断语句及case语句 
370.Linux定时任务at与crontab
371.学习大数据HADOOP框架重点及培养三大能力

第29章:Hadoop介绍及伪分布式环境
372.大数据是什么及HADOOP发展史及企业架构
373.HADOOP诞生、组件概览及版本说明
374.分布式概念及HDFS架构存储详解
375.YARN架构及MapReduce编程模型、运行在YARN上的过程详解
376.HADOOP部署三种模式及企业集群配置、HADOOP下载地址
377.HADOOP安装前Linux系统环境配置及JDK安装
378.伪分布式:hadoop安装目录及配置HDFS详解
379.伪分布式:启动HDFS服务、熟悉DFS文件操作命令及测试 
380.伪分布式:配置YARN及启动服务
381.伪分布式:配置MapReduce的WordCount运行在YARN及查看结果
382.Hadoop伪分布式环境部署要点、常见错误详解及如何查看日志信息
383.HDFS中NameNode启动过程及SNN功能详解

第30章:MapReduce编程及运行流程
384.HADOOP默认配置文件及常见属性配置
385.MapReduce中的历史服务启动配置及启动YARN的日志聚集功能
386.配置SSH无秘钥登录及start-dfs和start-yarn启动服务
387.Hadoop默认本地库的替换及源码编译
388.HDFS概念深入及Client访问数据流程
389.Linux环境下安装Maven和Eclipse、创建Maven工程及配置
390.NameNode启动过程中的SafeMode详解
391.MapReduce框架的编程模型(以WordCount为例)
392.编写MapReduce编程模板(Mapper、Reducer及Driver)
393.编程实现WordCount程序及本地测试
394.打包测试运行WordCount程序在YARN及总结开发MapReduce程序的步骤

第31章:网站案例分析及Hadoop分布式集群环境
395.MapReduce框架处理数据的流程及几点注意 
396.编写MapReduce编程模块
397.MapReduce数据类型及自定义数据类型 
398.案例:网站基本指标分析(一) 
399.案例:网站基本指标分析(二)
400.分布式安装部署:克隆虚拟机及配置网络
401.分布式安装部署:集群基本配置及服务运行规划 
402.分布式安装部署:集群机器时间同步
403.分布式安装部署:依据规划配置与分发安装包
404.分布式安装部署:启动HDFS、YARN服务及测试程序
405.分布式安装部署:配置主从节点之间的SSH无密钥登录 
406.MapReduce框架处理数据五步走详解

第32章:MapReduceShuffle及Zookeeper框架
407.MapReduce Shuffle过程详解(结合案例)
408.MapReduceShuffle优化设置及Combiner和Compress设置
409.MapReduce程序设置Reduce Number为0详解 
410.YARN运行Application原理内核详解
411.HADOOP Client详解(配置信息分类)
412.Zookeeper介绍及单机模式安装启动测试
413.分布式集群安装部署测试 
414.Hadoop高级课程说明及企业级HDFS集群架构

第33章:HDFS HA及二次排序
415.HDFS HA架构详解(作图说明)
416.依据官方文档对HDFS HA.进行配置、部署和分发 
417.配置HDFS HA自动故障转移及测试
418.HADOOP 2.x中其他特性说明(HDFS Federation及RM HA)
419.引出二次排序及实现二次排序的思路 
420.编程实现自定义数据类型PairWritable、自定义分区类及自定分组比较器
421.编写二次排序的MapReduce及测试(设置多个ReduceTask)
422.分布式资源框架YARN深入详解(对于HADOOP 1.x的MapReduce框架)
423.YARN资源管理配置(CPU及Memory)和Schedule策略

第34章:YARN 资源管理及MapReduce Join
424.MapReduceJoin总览及Map Join思路和实现详解
425.结合案例讲解Reduce Join及测试运行
426.企业级MapReduce面试题(去哪儿网)及数据分析流程
427.使用XMind思维导图复习HADOOP知识点 
428.MapReduce分析与SQL分析对比
429.Hive的介绍及其发展

第35章:Hive基本架构及环境部署
430.Hive的安装部署及启动
431.Hive的基本架构讲解 
432.安装MySQL作为元数据库存储 
433.配置Hive使用MySQL作为元数据库存储
434.Hive中基本命令的使用
435.Hive中常用的属性配置
436.Hive中常用的交互式命令
437.Hive中数据库的管理与使用 
438.Hive中表的管理与使用
439.Hive中外部表的使用 
440.Hive中分区表的介绍 
441.Hive中分区表的创建及使用 
442.Hive中数据导入的6种方式及其应用场景

第36章:Hive常用DML、UDF及连接方式
443.Hive中数据导出的4种方式及表的导入导出 
444.Hive中HQL的基本语法(一)
445.Hive中HQL的基本语法(二) 
446.Hive中order by、sort by、distribute by与cluster by的使用
447. Hive中分析函数与窗口函数
448.Hive中UDF的介绍 
449.Hive中使用自定义UDF实现日期格式转换
450.HiveServer2的介绍及三种连接方式
451.Hive元数据、fetch task和严格模式的介绍
452.CDH版本框架的介绍
453.CDH版本框架的环境部署 
454.Sqoop的介绍及其实现原理 

第37章:Sqoop Sqoop及用户行为分析案例
455.Sqoop的安装部署及连接测试 
456.Sqoop将MySQL数据导入到HDFS(一) 
457.Sqoop将MySQL数据导入到HDFS(二) 
458.Sqoop中的增量导入与Sqoop job 
459.Sqoop将MySQL数据导入Hive表中 
460.Sqoop的导出及脚本中使用的方式 
461.案例分析-动态分区的实现
462.案例分析-源表的分区加载创建
463.案例分析-指标分析使用Sqoop导出 
464.自动批量加载数据到hive 
465.Hive表批量加载数据的脚本实现(一) 
466.Hive表批量加载数据的脚本实现(二) 
467.HIve中的case when、cast及unix_timestamp的使用

第38章:Hive复杂用户行为案例分析及优化
468.复杂日志分析-需求分析 
469.复杂日志分析-需求字段讲解及过滤 
470.复杂日志分析-字段提取及临时表的创建 
471.复杂日志分析-指标结果的分析实现 
472.Hive中数据文件的存储格式介绍及对比 
473.常见的压缩格式及MapReduce的压缩介绍 
474.Hadoop中编译配置Snappy压缩
475.Hadoop及Hive配置支持snappy压缩 
476.Hive中的常见调优 
477.Hive中的数据倾斜及解决方案-三种join方式
478.Hive中的数据倾斜及解决方案-group by 
479.Hive中使用正则加载数据
480.Hive中使用Python脚本进行预处理 

第39章:Zeus任务资源调度工具
481.资源任务调度框架介绍 
482.企业中常见的任务调度框架 
483.Zeus的介绍及基本实现原理 
484.Zeus安装部署-基本环境配置 
485.Zeus安装部署-配置文件的修改 
486.Zeus安装部署-编译打包 
487.Zeus平台的调度使用 
488.Zeus平台实现任务调度应用(一)
489.Zeus平台实现任务调度应用(二)
490.Zeus平台实现任务调度应用(三)

第40章:Hbase基本使用及存储设计
491.Hbase的介绍及其发展 
492.Hbase中的特殊概念 
493.Hbase与MYSQL的存储比较 
494.Hbase部署环境准备 
495.Hbase伪分布式配置文件的修改 
496.Hbase伪分布式的启动及hbase命令的使用
497.Hbase shell中namespace的常用操作
498.Hbase shell中表的DDL操作 
499.Hbase shell中表的DML操作(一) 
500.Hbase shell中表的DML操作(二)
501.Hbase的物理模型 
502.Hbase的存储模型 
503.Hbase的namespace表和meta表 
504.Hbase的读写流程
505.Hbase中各组件的功能介绍

第41章:Hbase企业应用及与MapReduce集成
506.Hbase Java API-环境配置
507.Hbase Java API-通过get读取Hbase表中数据
508.Hbase Java API-put、delete 
509.Hbase Java API-Scan和过滤器
510.Hbase与MapReduce集成-环境变量的配置 
511.Hbase与MapReduce集成-rowcounter测试
512.Hbase与MapReduce集成-代码实现自定义需求(一)
513.Hbase与MapReduce集成-代码实现自定义需求(二)
514.Hbase与MapReduce集成-importTSV工具
515.Hbase与MapReduce集成-Bulk Load 
516.Hbase完全分布式集群的部署配置 
517.Hbase完全分布式集群启动及Backup Master的配置

第42章:案例:Hbase的设计及企业优化
518.Hbase表的设计
519.Hbase表中rowkey及列簇的设计
520.Hbase表设计-微博案例的表设计 
521. Hbase表设计-微博案例的业务实现 
522.Hbase列簇属性的介绍 
523.Hbase性能优化-GC调优 
524.Hbase性能优化-内存管理 
525.Hbase性能优化-flush、compact、split 
526.Hbase性能优化-配置snappy压缩 
527.Hbase中索引的介绍 
528.PHoenix的编译及安装部署 
529.PHoenix与Hbase表的关联使用 

第43章:大数据可视化技术:可视化技术概述与Echarts入门
530.课程目标
531.数据可视化概述 
532.什么是数据可视化? 
533.经典可视化案例
534.大数据可视化的价值 
535.数据可视化工具、案例、书籍 
536.Echarts概述 
537.Echarts特性介绍
538.如何快速上手开发一个Echarts可视化图表 
539.如何阅读Echarts官方文档
540.Echarts学习必备基础知识 
541.Echarts3.x与Echarts2.x的区别
542.Echarts基础架构与常见名词术语
543.Echarts标准开发模板
544.Echarts 柱状图(bar)详解 
545.授人以渔01_Echarts 配置项查看技巧 
546.Echarts 拆线图(line)详解_基本配置
547.Echarts 拆线图(line)详解_动态数据展示 
548.授人以渔02_定制输出数据视图(dataView)的内容
549.授人以渔03_利用百度图说实现Echarts的可视化配置 (

第44章:大数据可视化技术:Echarts图表详解
550.授人以渔04_Echarts图表标准配置图示技巧 
551.饼图(pie)详解_标准饼图 
552.小技巧01_辅助线的作用及Echart3.x与2.x中的区别
553.小技巧02_托动自动计算(calculable)功能实现及Echart3.x与2.x中的区别
554.饼图(pie)高级_环形图
555.饼图(pie)高级_嵌套环形图 
556.散点图(scatter)详解_标准散点图
557.散点图(scatter)高级_提示信息及坐标轴的自定义
558.气泡图(bubble)详解
559.雷达图(radar)详解 
560.地图(map)详解 
561.漏斗图(funnel)详解
562.词云(wordCloud)详解 
563.仪表盘(gauge)详解_基础配置 
564.十大常见图表_小结
565.仪表盘(gauge)详解_多仪表盘高级配置

第45章:大数据可视化技术:Echarts高级与综合案例实战
566.Echarts图表高级_混搭折线与柱状图+双轴 01 
567.Echarts图表高级_混搭折线与柱状图+双轴 02 
568.Echarts图表高级_多图表联动
569.Echarts图表高级_如何自定义并动态切换主题 
570.Echarts图表高级_Echarts异步数据加载 
571.Echarts图表高级_Echarts异步数据加载并显示Loading动画进度
572.Echarts图表高级_Echarts数据动态更新 
573.Echarts图表高级_Echarts事件与行为概述 
574.Echarts图表高级_Echarts事件与行为_鼠标事件处理
575.Echarts图表高级_Echarts事件与行为_鼠标点击位置判断及技巧
576.Echarts图表高级_Echarts事件与行为_点击事件+异步获取数据明细
577. 动态图表联动(事件驱动) 
578.组件交互行为事件 
579.Echarts图表高级_小结 
580.北上广最佳前10航行路线图_案例分析 
581.北上广最佳前10航行路线图_代码实现01 
582.北上广最佳前10航行路线图_代码实现02 
583.北上广最佳前10航行路线图_代码实现03 
584.北上广最佳前10航行路线图_代码实现04
585.北上广最佳前10航行路线图_重构实现数据动态异常加载_思路分析
586.北上广最佳前10航行路线图_重构实现数据动态异常加载_代码实现
587.豆瓣最新热映电影排名分析_案例分析 
588.豆瓣最新热映电影排名分析_豆瓣API简介&案例思路分析 
589.豆瓣最新热映电影排名分析_框架代码实现剖析
590.豆瓣最新热映电影排名分析_实现异步跨域获取数据并本地缓存 
591.豆瓣最新热映电影排名分析_三种类型图形堆叠技巧实现 
592.豆瓣最新热映电影排名分析_电影海报显示功能的实现
593.豆瓣最新热映电影排名分析_点击查看电影明细
594.图表适用场景概述 
595.图表适用场景_柱状图、条形图、拆线图、饼图 
596.图表适用场景_地图、雷达图、漏斗图、词云、散点图、双轴图
597.数据可视化方法
598.数据可视化误区
599.课程总结 
 

第46章:大数据离线项目:企业大数据项目业务及设计
600.Day1801_大数据项目的开发流程 
601.Day1802_大数据的应用领域(一) 
602.Day1803_大数据的应用领域(二) 
603.大数据分析平台(一) 
604.大数据分析平台(二) 
605.数据量及集群规模的规划(一) 
606.数据量及集群规模的规划(二)
607.企业常见数据分析需求(一) 
608.企业常见数据分析需求(二) 

第47章:大数据离线项目:数据采集框架Flume
609.Flume的介绍及其架构组成 
610.Flume的安装部署 
611.Flume的测试运行 
612.Flume中配置使用file channel及HDFS sink
613.Flume中配置HDFS文件生成大小及时间分区 
614.Flume中配置Spooling Dir的使用 
615.Flume中配置Spooling Dir的文件过滤 
616.Flume中配置扇入架构的介绍 
617.Flume中配置扇入架构的测试实现
618.Flume中配置扇出架构的实现 
619.Flume中Taildir的介绍及编译
620.Flume中Taildir的配置及测试使用
621.项目技术架构介绍 

第48章:大数据离线项目:Nginx+Flume实现数据采集
622.项目技术架构图 
623.项目中框架的技术选型 
624.Tengine的介绍及源码编译
625.Tengine的启动及测试 
626.配置使用service命令管理nginx服务 
627.SDK与Nginx关联测试
628.SDK的设计思路及重要事件类型的介绍 
629.JS SDK 与 JAVA SDK的代码实现 
630.Nginx中配置自定义收集方案 
631.Flume进行数据采集 
632.Flume的负载均衡及故障转移及美团的使用案例 
633.Nginx日志分割脚本的实现(一) 

第49章:大数据离线项目:ETL的业务分析及实现(一)
634.Nginx日志分割脚本的实现(二)
635.Nginx日志上传脚本的实现 )
636.ETL的流程分析 
637.数据分析项目的导入 
638.日志解析类的实现(一) 
639.日志解析类的实现(二) 
640.日志解析类的实现(三) 
641.日志解析类的实现(四) 
642.ETL具体代码流程分析 
643.项目中Hbase表的设计 
644.ETL的Map类的实现(一)
645.ETL的Map类的实现(二) 

第50章:大数据离线项目:ETL的业务分析及实现(二)
646.ETL的Driver类的实现(一) 
647.ETL的Driver类的实现(二) 
648.ETL的Driver类的实现(三) 
649.ETL的本地运行测试 
650.ETL的集群运行测试 

第51章:大数据离线项目:数据分析的思路及代码实现
651.新增访客的统计分析实现思路(一) 
652.新增访客的统计分析实现思路(二)
653.使用MapReduce实现思路分析 
654.Hbase中值和字段的过滤(一) 
655.Hbase中值和字段的过滤(二) 
656.Hbase中值和字段的过滤(三) 
657.新增用户统计Map代码的实现(一) 
658.新增用户统计Map代码的实现(二) 
659.新增用户统计Map代码的实现(三) 
660.新增用户统计Reduce及Driver代码的实现(一) 
661.新增用户统计Reduce及Driver代码的实现(二) 
662.MapReduce中自定义输入输出

第52章:大数据离线项目:Hourly分析及可视化展示
663.新增用户统计代码的讲解(一) 
664.新增用户统计代码的讲解(二) 
665.hourly分析-hbase与hive的集成 
666.hourly分析-活跃用户的分析 
667.hourly分析-会话长度的分析 
668.hourly分析-平均访问时长分析及sqoop导出 
669.使用zeus实现项目任务调度(一)
670.使用zeus实现项目任务调度(二) 
671.使用zeus实现项目任务调度(三) 
672.使用zeus实现项目任务调度(四) 
673.数据展示层及Highcharts的使用讲解(一) 
674.数据展示层及Highcharts的使用讲解(二) 
675.项目总结(一)
676.项目总结(二) 
677.大数据分析框架概要、Spark课程学习计划及建议 
678.为什么学习SCALA语言及SCALA语言介绍和学习提纲 

第53章:SPARK 数据分析:SCALA编程(一)
679.SCALA环境搭建及IDEA安装配置(JAVA安装、SCALA安装及IDEA安装)
680.SCALA语言HelloWorld及安装总结(作业LINUX系统安装)
681.SCALA中变量的声明(两种方式) 
682.SCALA中数据类型及操作符 
683.IF语句及WHILE循环、循环表达式及FOR基本使用
684.FOR循环深入讲解及yield功能 
685.SCALA中的Breaks使用
686.函数的定义(如何确定一个函数) 
687.函数的定义(各种情况下函数定义与使用) 
688.函数的作用域、默认参数函数和名称参数函数使用详解 
689.变长参数函数和内部函数使用详解
690.匿名函数定义与使用 
691.高阶函数定义与使用
692.深入高阶函数的使用 
693.数组Array和ArrayBuffer 
694.SCALA中集合类Collections概要讲解(对比JAVA中集合类)

第54章:SPARK 数据分析:SCALA编程(二)
695.集合类之List和ListBuffer创建与基本操作
696.集合List中常见高阶函数使用详解(一) 
697.集合List中常见高阶函数使用详解(二) 
698.SCALA中元组创建与使用
699.集合类之Set及常见函数使用 
700.集合类之Map创建与遍历 
701.集合类综合应用:实现WordCount词频统计 
702.类Class的定义与创建对象 
703.对象object及apply方法 
704.类class的构造方法(主构造方法和附属构造方法)
705.SCALA中的Trait初步使用 
706.SCALA中异常的处理及模式匹配初步使用 
707.模式匹配之匹配类型、元组
708.CaseClass及在模式匹配中使用 
709.Option(Some、Node)及模式匹配使用
710.SCALA中隐式转换详解(结合案例) 
711.SCALA中隐式参数详解(结合案例)
712.综合回顾复习SCALA的所有知识要点 

第55章:SPARK 数据分析:Spark Core(一)
713.SPARK框架学习的基础及与Spark初步认识
714.Spark Feature详解及处理数据三步走策略 
715.Spark 学习资源、源码下载及编译详解 
716.SPARK 安装目录及使用的方便优点
717.Local Mode配置、启动spark-shell及运行程序测试
718.编程实现WordCount程序(类比MapReduce实现思路)
719.Spark Local Mode深入剖析详解 
720.使用IDEA创建MAVEN工程及配置依赖 
721.编写Spark Application开发模板 
722.深入WordCount程序分析(sortByKey和top函数使用)
723.如何导入Spark源码至IDEA中(Windows下)
724.Spark Standalone 集群架构、配置、启动深入详解及运行spark-shell测试
725.浅析Spark Application运行Cluster组成及spark-submit提交应用
726.深入剖析Spark Application中Job、Stage和Task关系
727.案例:对原始数据进行清洗过滤及实现每日浏览量统计 
728.案例:实现每日访客数统计及使用HiveQL进行结果验证、打包运行SparkStandalone集群
729.Spark Application运行的Deploy Mode详解(结合案例演示)

第56章:SPARK 数据分析:Spark Core(二)
730.使用spark-submit提交应用运行Standalone集群及性能调优
731.Spark Application运行的EventLog启用 
732.Spark HistoryServer配置及使用 
733.RDD是什么及创建方式
734.RDD操作类型及持久化详解 
735.RDD中常用的Transformation和Action详解(一)
736.RDD中常用的Transformation和Action详解(二)
737.案例:分组排序TopKey实现及如何处理数据倾斜(分阶段聚合)
738.SparkOnYarn:运行SparkApplication在YARN上(编写脚本)
739.配置HIstoryServer及运行在YARN的两种Deploy Mode架构
740.官方案例:读取日志数据及正则解析(CASE CLASS)
741.官方案例:依据业务编码实现及熟悉RDD API 
742.方案例:其他业务编码实现测试及过滤数据 
743.官方案例:RDD#top函数使用(自定义排序规则)及提交运行YARN集群
744.内核调度:Spark Job Scheduler详解(一) 
745.内核调度:Spark Job Scheduler详解(二) 

第57章:SPARK 数据分析:Spark SQL
746.SparkSQL的重要性及Spark2.x的生态圈 
747.SparkSQL前世今生(Hive、Shark、SparkSQL)及初步使用说明
748.案例分析:基于DataFrame和SQL分析数据(一) 
749.案例分析:基于DataFrame和SQL分析数据(二) 
750.SparkSQL Introduction及处理数据的方式 
751.SparkSQL与Hive集成配置详解 
752.基于SQL和DSL方式分析处理Hive表的数据 
753.SparkSQL中提供的spark-sql命令行的使用(与Hive类比)
754,SparkSQL中ThriftServer配置使用详解 
755.SparkSQL性能优化及DataFrame是什么 
756.SparkSQL读取多种数据数据实例
757.DataFrame实现多数据源数据的关联分析(MySQL与Hive表数据)
758.SparkSQL读取AVRO格式数据详解
759.SparkSQL读取CSV或TSV格式数据详解
760.自定义schema的方式转换RDD为DataFrame及直接运行SQL在数据文件上
761.SparkSQL中自带函数的使用及如何自定义UDF、注册和使用
762.Spark 2.x中SparkSQL基本使用(一) 
763.Spark 2.x中SparkSQL基本使用(二) 

第58章:SPARK 数据分析:Spark Streaming及Kafka
764.大数据处理的类型、流式计算的框架及Streaming内容概要 
765.SparkStreaming是什么、使用案例及数据处理流程 
766.官方Example案例:词频统计运行详解 
767.SparkStreaming编程实现从Socket读取数据实时统计分析
768.深入SparkStreaming运行的工作原理 
769.深度剖析batch interval和block interval及性能优化
770.编程模型:从源码深入剖析DStream(StreamingContext、DStream操作)
771.深入详解DStream#foreachRDD使用 
772.Apache Kafka介绍及架构详解 
773.Apache Kafka安装、部署、启动 
774.创建Topic、发送和消费数据及深入理解KAFKA数据的存储 
775.剖析分享Kafka企业技术架构及使用(结合Kafka Meetup分享)
776.SparkStreaming与Flume和Kafka两种集成方式详解
777.采用Pull方式与Kafka集成进行数据分析处理 
778.状态Stateful实时统计updataStateByKey使用
779.SparkStreaming实时分析应用的高可用性 
780.实时窗口Window统计详解(reduceByKeyAndWindow使用)

第59章:SPARK 数据分析:基于Java和Python的Spark编程
781.基于Java和Python语言的Spark开发的提纲及学习方式
782.基于JAVA语言编写Spark Application编程模板、读取数据及测试监控
783.案例WordCount:结合源码编码实现JAVA语言编程 
784.案例WordCount:对统计的词频进行降序排序(涉及TopKey)及作业说明
785.案例分析:基于JAVA实现如何将RDD转换为DataFrame
786.案例分析:使用SQL进行数据分析 
787.案例分析:使用DSL进行数据分析及自定义UDF注册使用 
788.SparkStreaming基于JAVA实现从Socket读取数据WordCount统计及测试
789.结合案例实现JAVA编程DStream#foreachRDD和从KAFKA读取数据
790.结合案例讲解基于JAVA的updateState和window编程及作业
791.Python介绍、Windows下2.7的安装及测试 
792.PyCharm安装、设置及创建工程和测试 
793.PySpark第三方包的安装配置 
794.基于Python的SparkCore编程模板 
795.并行化本地集合创建RDD及RDD初步使用 
796.Python中函数的定义及匿名函数lambda使用 
797.PySpark实现WordCount程序及测试 
798.PySpark实现从HDFS读取数据实现WordCount(属性配置)
799.深入WordCount程序之SortByKey 
800.深入WordCount程序之TopKey 
801.Anaconda2版本、安装、配置、使用及测试(针对pyspark编程)
802.Spark自带交互式pyspark命令的使用 
803.pyspark底层架构及如何提交pyspark程序运行 

第60章:storm:架构、环境及使用
804.storm下载及环境搭建介绍 
805.storm启动前各参数配置详解 
806.进程启动实践 
807.运行架构解析 
808.自带案例wordcount的测试运行与架构详解
809.框架组件之kafkaSpout完成kafka数据读取功能 
810.框架组件之splitbolt完成单词切割功能 
811.框架组件之countbolt完成词频统计功能
812.框架组件之hbasebolt完成将结果写入hbase功能 
813.集群整体运行测试及回顾 

第61章:storm:Trident使用
814.逻辑的抽象-Trident介绍 
815.Trident中spout创建及测试数据读取 
816.遍历所有tuple请使用each方法 
817.只保留我想保留的-filter过滤器 
818.逻辑功能的完成方法-function实现字符串切割
819.系统提供tuple过滤功能project方法 
820.利用function实现词频统计
821.项目打包集群运行
822.多个execute以及分组操作
823.逻辑功能实现同一批次内局部统计 
824.逻辑功能实现全局统计 
825.对数据重分区操作 
826.远程调用查询DRPC服务 

第62章:storm:电商实时销售统计
827.实战案例需求介绍 
828.实现需求测试类介绍 
829.完成kafkaSpout从测试类中读取数据 
830.利用Trident架构解析订单记录
831.完成计算每天销售额 
832.DRPC查询每天销售额 
833.分流统计不同的分析指标 
834.多字段统计销售数据 

第63章:高薪面试:企业大数据平台(一)
835.企业大数据平台基本组件及集群大小和Zookeeper集群的节点数设置
836.Cloudera Manager 5.x的几种安装方式及优缺点
837.大数据平台集群机器环境准备配置讲解一
838.大数据平台集群机器环境准备配置讲解二 
839.配置集群机器的时间同步 
840.安装CM 5.3.x前准备工作(搭建基于http的本地源及安装postgresql数据库)
841.使用本地源安装CM 5.3.x 
842.使用CM 5.3.x添加主机到集群中
843.解决CM 5.3.x检查集群中各个机器出现的问题

第64章:高薪面试:企业大数据平台(二)
844.使用CM 5.3.x安装Zookeeper服务组件及CDH 安装软件目录讲解
845.CDH5.x安装服务日志查看及服务组件的客户端配置和目录 
846.使用CM 5.3.x安装HDFS组件、测试及一些注意细节 
847. CM5.x如何配置部署启动HDFS HA及健康HDFS组件运行时各个指标
848.CM5.x安装YARN、运行WordCount程序测试和每个服务对应各自用户
849.CM5.3.x安装Hive,进行测试和如何配置高级属性 
850.使用CM5.x安装CDH 5.x服务组件时,做了很多优化和CM账号管理使用
851.CM5.x安装HBase和测试 
852.CM5.x安装Oozie和Hue及配置Oozie页面展示 
853.配置Hue与各组件集成(HDFS HA及HBase特殊配置) 

第65章:高薪面试:大数据面试
854.企业常见大数据面试题(一) 
855.企业常见大数据面试题(二)
856.企业常见大数据面试题(三)


二、课程部分项目实战截图:

项目一、小型电商购物管理系统:

 

项目二、基于 Hadoop 技术的离线电商运营分析系统:

 

项目三、大数据可视化 -【航空大数据最佳路线分析】:

 

项目四、大数据可视化 – 豆瓣最新电影排名分析:

 

项目五、PB 级网站流量大数据分析:

 

项目六、基于 Spark/Python 豆瓣电影推荐分析:

 

三、课程目标:
1、了解 Hadoop 的历史及目前发展的现状、以及 Hadoop 的技术特点,从而把握分布式计算框架及未来发展方向,在大数据时代能为企业的技术选型及架构设计提供决策参考。
2、让学员对大数据整个生态系统常用的大数据技术有清晰全面的认识,可以独立规划及部署生产环境的Hadoop 集群,掌握 Hadoop 基本运维思路和方法,对 Hadoop 集群进行管理和优化,能够利用大数据技术对企业的大数据进行基本数据存储,管理,分析,最终为企业单位创建价值


四、就业方向:
由于本套课程涉及的技术面很广,所以就业方向也有很多,包括但不限于以下几个主要的就业岗位:
1、Hadoop 大数据开发工程师
2、Hive 大数据开发工程师
3、Storm 大数据开发工程师
4、Spark 大数据开发工程师
5、大数据分析师


五、讲师团队(部分):

 

 

 

 


六、学员提问:
1、完全零基础可以学习吗?
答:可以的,课程就是针对零基础学员制定的

2、学习周期是多久?
答:零基础的学员建议平均每天学习3到5个小时,约4个月左右的学习周期!

3、学习过程中不懂的地方有老师答疑吗?
答:有的,课程购买之后,联系网站客服获取老师的联系方式,老师提供一对一的答疑服务。

4、课程PPT和代码在哪里下载?
答:课程购买之后,联系网站客服获取课程相关资料。

5、提供课程所需的软件吗?
答:提供的,联系老师获取即可。

6、课程提供下载吗?
答:课程只支持在线观看,不提供下载!学员可以通过手机安装APP,缓存课程到本地观看。

7、买课程可以开发票吗?
答:可以。我们使用“南宁学途网络科技有限公司”给您开具“普通发票”,发票内容是“信息技术服务费”。开具发票需要另外加收6%的税费,费用请付款到支付宝账号:xuetuwuyou@126.com 户名:南宁学途网络科技有限公司。我们需要您提供:①发票抬头②公司组织机构代码(统一社会信用代码)③发票邮寄地址④收件人姓名⑤手机号。我们将快递发票给您

8、课程有时间限制或者观看次数限制吗?
答:课程没有时间限制,也没有观看次数限制

9、课程用到的软件及版本
答:
JDK-1.8
SCALA-2.10.4
SCALA-2.11.8
Python-2.7.13
Eclipse-JEE-NEON
IDEA-201602
PyCharm-201605
VMware12
CentOS-6.4(64位)
Maven-3.3.3
Hadoop-2.5.0
Hive-0.13.1
HBase-0.98.6
Spark-1.6.1
Spark-2.0.0
Kafka-0.8.2.1
CDH 版本(实际测试生成环境)统一使用CDH5.3.6和CM5.3.6版本

课程目标
  • 了解 Hadoop 的历史及目前发展的现状、以及 Hadoop 的技术特点
  • 把握分布式计算框架及未来发展方向,在大数据时代能为企业的技术选型及架构设计提供决策参考。
  • 对大数据整个生态系统常用的大数据技术有清晰全面的认识
  • 可以独立规划及部署生产环境的Hadoop 集群,掌握 Hadoop 基本运维思路和方法,对 Hadoop 集群进行管理和优化
  • 能够利用大数据技术对企业的大数据进行基本数据存储,管理,分析,最终为企业单位创建价值
适合人群
  • 在校计算机相关专业的大学生
  • 有兴趣从事大数据开发的在职工作人员

授课教师

学途无忧网金牌合作讲师

课程特色

视频(856)