尚硅谷_韩顺平(大数据定制版)


选段754P
查看全部
01-Linux-基本介绍
02-Linux-发展历程
03-Linux-和Unix关系
04-Linux-安装VM
05-Linux-安装Centos的准备工作
06-Linux-安装Centos的步骤
07-Linux-Centos终端和联网的说明
08-Linux_文件系统目录结构
09-Linux-远程登录XShell5
10-Linux-远程传输文件XFTP5
11-Linux-SecureCRT安装使用
12-Linux-Vi和Vim的使用
13-Linux-关机重启注销
14-Linux-用户管理 创建用户指定密码
15-Linux-用户管理 删除用户
16-Linux-用户管理 查询切换用户
17-Linux-用户管理 组的管理
18-Linux-用户管理 用户和组的配置文件
19-Linux-实用指令 运行级别和找回root密码
20-Linux-实用指令 帮助指令
21-Linux-实用指令 pwd ls cd
22-Linux-实用指令 mkdir rmdir
23-Linux-实用指令 touch cp
24-Linux-实用指令 rm mv
25-Linux-实用指令 cat more less
26-Linux-实用指令 重定向和追加
27-Linux-实用指令 echo head tail
28-Linux-实用指令 ln history
29-Linux-实用指令 date cal
30-Linux-实用指令 find locate grep 管道符
31-Linux-实用指令 压缩和解压类指令
32-Linux-组管理
33-Linux-权限详细介绍
34-Linux-权限管理
35-Linux-权限最佳实践
36-Linux-任务调度基本说明
37-Linux-任务调度应用实例
38-Linux-磁盘分区介绍
39-Linux-分区
40-Linux-给Linux添加一块新硬盘
41-Linux-磁盘查询实用指令
42-Linux-网络配置原理和说明
43-Linux-自动获取IP
44-Linux-修改配置文件指定IP
45-Linux-修改Linux主机名
46-Linux-进程介绍和查询
47-Linux-进程管理 终止进程
48-Linux-进程管理 服务管理
49-Linux-进程管理 监控服务
50-Linux-RPM包管理
51-Linux-YUM
52-Linux-企业真实面试题
53-Linux-结束语-程序人生感悟
01_Shell_课程介绍
02_Shell_概述
03_Shell_解析器
04_Shell_HelloWorld案例
05_Shell_多命令操作案例
06_Shell_系统变量和自定义变量案例
07_Shell_$n案例
08_Shell_$#案例
09_Shell_$※$@案例
10_Shell_$?案例
11_Shell_运算符
12_Shell_条件判断案例
13_Shell_回顾
14_Shell_if案例
15_Shell_Case案例
16_Shell_For1案例
17_Shell_For2案例
18_Shell_While案例
19_Shell_Read案例
20_Shell_BaseName&DirName案例
21_Shell_自定义函数案例
22_Shell_Cut案例
23_Shell_Sed案例
24_Shell_Awk案例
25_Shell_Sort案例
26_Shell_企业真题讲解
01_课程简介_大数据课程
02_课程简介_Hadoop课程
03_入门_大数据概念
04_入门_大数据特点(4V)
05_入门_大数据应用场景
06_入门_大数据发展前景
07_入门_大数据部门业务流程分析
08_入门_大数据部门组织结构(重点)
09_Hadoop_是什么
10_Hadoop_发展历史
11_Hadoop_三大发行版本
12_Hadoop_优势(4高)
13_Hadoop_1.x和2.x区别
14_Hadoop_组成
15_Hadoop_大数据技术生态体系
16_Hadoop_推荐系统框架图
17_环境搭建_虚拟机准备
18_环境搭建_JDK安装
19_环境搭建_Hadoop安装
20_环境搭建_Hadoop目录结构
21_环境搭建_Hadoop官网手册
22_本地模式_Grep官方案例
23_本地模式_WordCount官方案例
24_伪分布式_启动HDFS并运行MR程序
25_伪分布式_Log日志查看和NN格式化前强调
26_伪分布式_NameNode格式化注意事项
27_伪分布式_启动YARN并运行MR程序
28_伪分布式_配置历史服务器
29_伪分布式_配置日志聚集
30_伪分布式_配置文件说明
31_完全分布式_虚拟机环境准备
32_完全分布式_scp案例
33_完全分布式_rsync案例
34_完全分布式_集群分发脚本xsync
35_完全分布式_集群配置
36_完全分布式_集群单节点启动
37_完全分布式_集群ssh配置
38_完全分布式_集群群起
39_完全分布式_集群文件存储路径说明
40_完全分布式_集群启动停止方式总结
41_每日回顾
42_完全分布式_RM启动注意事项
43_完全分布式_Crondtab定时任务调度
44_完全分布式_集群时间同步
45_Hadoop源码编译_意义
46_Hadoop源码编译_说明
47_Hadoop源码编译_具体流程
48_HDFS_课程介绍
49_HDFS_产生背景及定义
50_HDFS_优缺点
51_HDFS_组成架构
52_HDFS_块的大小设置
53_HDFS_Shell命令(开发重点)
54_HDFS_副本数设置
55_HDFS_客户端环境准备
56_HDFS_客户端环境测试
57_每日回顾
58_HDFS_文件上传_案例
59_HDFS_参数优先级说明_案例
60_HDFS_文件下载_案例
61_HDFS_文件夹删除_案例
62_HDFS_修改文件的名称_案例
63_HDFS_查看文件的详情_案例
64_HDFS_判断是文件还是文件夹_案例
65_HDFS_文件IO流上传_案例
66_HDFS_文件IO流下载操作_案例
67_HDFS_定位读取文件_案例
68_HDFS_写数据流程(面试重点)
69_HDFS_网络拓扑-节点距离计算
70_HDFS_机架感知-副本存储节点选择
71_HDFS_读数据流程(面试重点)
72_HDFS_NN和2NN工作机制(面试重点)
73_HDFS_Fsimage和Edits解析
74_HDFS_CheckPoint时间设置
75_HDFS_NN故障处理_案例
76_HDFS_安全模式
77_HDFS_集群安全模式_案例
78_HDFS_NN多目录配置_案例
79_每日回顾
80_HDFS_DN工作机制(面试重点)
81_HDFS_数据完整性
82_HDFS_掉线时限参数设置
83_HDFS_服役新节点_案例
84_HDFS_添加白名单_案例
85_HDFS_黑名单退役_案例
86_HDFS_DN多目录配置_案例
87_HDFS新特性_集群间数据拷贝
88_HDFS新特性_小文件归档案例
89_HDFS新特性_回收站案例
90_HDFS新特性_快照管理
91_MapReduce_课程介绍
92_MapReduce_概述
93_MapReduce_优缺点
94_MapReduce_核心思想
95_MapReduce_进程
96_MapReduce_官方案例源码解析和数据类型
97_MapReduce_编程规范
98_MapReduce_WordCount案例分析
99_MapReduce_WordCount案例Mapper
100_MapReduce_WordCount案例Reducer
101_MapReduce_WordCount案例Driver
102_MapReduce_WordCount案例测试
103_MapReduce_WordCount案例Debug调试
104_MapReduce_WordCount案例在集群上运行
105_每日回顾
106_MapReduce_序列化概述
107_MapReduce_序列化自定义步骤
108_MapReduce_序列化案例分析
109_MapReduce_序列化案例FlowBean
110_MapReduce_序列化案例Mapper
111_MapReduce_序列化案例Reducer
112_MapReduce_序列化案例Driver
113_MapReduce_序列化案例Debug调试
114_MapReduce_切片和MapTask并行度决定机制
115_MapReduce_Job提交流程源码解析
116_MapReduce_Job切片机制源码解析
117_MapReduce_FileInputFormat切片机制和配置参数
118_MapReduce_CombineTextInputFormat理论
119_MapReduce_CombineTextInputFormat案例
120_MapReduce_FileInputFormat实现类
121_MapReduce_TextInputFormat实现类
122_每日回顾
123_MapReduce_KeyValueTextInputFormat案例分析
124_MapReduce_KeyValueTextInputFormat案例实现
125_MapReduce_NLineInputFormat案例分析
126_MapReduce_NLineInputFormat案例实现
127_MapReduce_自定义InputFormat步骤
128_MapReduce_自定义InputFormat案例
129_MapReduce_自定义InputFormat案例Debug
130_MapReduce_InputFormat实现类总结
131_MapReduce_工作流程(面试重点)
132_MapReduce_Shuffle机制(面试重点)
133_MapReduce_HashPartition默认分区
134_MapReduce_Partition分区案例
135_MapReduce_Partition分区案例总结
136_每日回顾
137_MapReduce_回顾分区
138_MapReduce_排序概述
139_MapReduce_排序分类
140_MapReduce_全排序案例分析
141_MapReduce_全排序案例FlowBean
142_MapReduce_全排序案例Mapper
143_MapReduce_全排序案例Mapper_已处理
144_MapReduce_全排序案例实现及测试
145_MapReduce_分区排序案例实现及测试
146_MapReduce_Debug调试思想
147_MapReduce_Combiner理论
148_MapReduce_Combiner案例实现
149_MapReduce_分组排序案例分析
150_MapReduce_分组排序案例OrderBean
151_MapReduce_分组排序案例Mapper
152_MapReduce_分组排序案例Driver
153_MapReduce_分组排序案例排序类
153_MapReduce_分组排序案例排序类
155_MapReduce_分组排序案例扩展
156_MapReduce_MapTask工作机制(面试重点)
157_MapReduce_ReduceTask工作机制(面试重点)
158_MapReduce_ReduceTask个数设置
159_MapReduce_Shuffle机制(面试重点)
160_MapReduce_工作流程源码分析
161_MapReduce_OutPutFormat接口实现类
162_MapReduce_自定义OutputFormat案例分析
163_MapReduce_自定义OutputFormat案例实现
164_MapReduce_ReduceJoin理论
165_MapReduce_ReduceJoin案例分析
166_MapReduce_ReduceJoin案例TableBean
167_MapReduce_ReduceJoin案例Mapper
168_MapReduce_ReduceJoin案例Reduce
169_MapReduce_ReduceJoin案例Driver
170_MapReduce_ReduceJoin案例Debug和总结
171_MapReduce_MapJoin案例分析
172_MapReduce_MapJoin案例缓存文件处理
173_MapReduce_MapJoin案例测试
174_MapReduce_计数器应用
175_MapReduce_数据清洗案例
176_MapReduce_开发总结
177_压缩_概述
178_压缩_MR支持的压缩编码
179_压缩_方式选择
180_压缩_位置选择
181_压缩_参数设置
182_压缩_压缩案例
183_压缩_解压缩案例
184_压缩_Map和Reduce启用压缩案例
185_YARN_基本架构
186_YARN_工作机制
187_YARN_作业提交全流程
188_YARN_资源调度器
189_YARN_任务推测执行
190_企业调优_MR跑的慢的原因
191_企业调优_MR优化方法
192_企业调优_HDFS小文件处理
193_扩展案例_多Job串联案例分析
194_扩展案例_多Job串联案例第一个Job
195_扩展案例_多Job串联案例完成
196_扩展案例_TopN案例
197_扩展案例_找共同粉丝(学生版1)
198_扩展案例_找共同粉丝(学生版2)
199_Hadoop总结_企业真实面试题讲解
200_Hadoop总结_开发重点
01_Zookeeper_课程介绍
02_Zookeeper_概述
03_Zookeeper_特点
04_Zookeeper_数据结构
05_Zookeeper_应用场景
06_Zookeeper_下载地址
07_Zookeeper_本地模式安装
08_Zookeeper_配置参数解读
09_Zookeeper_选举机制
10_Zookeeper_节点类型
11_Zookeeper_分布式安装
12_Zookeeper_Shell命令操作
13_Zookeeper_Stat结构体
14_Zookeeper_监听器原理
15_Zookeeper_写数据流程
16_Zookeeper_创建ZooKeeper客户端
17_Zookeeper_创建一个节点
18_Zookeeper_获取子节点并监听节点变化
19_Zookeeper_判断节点是否存在
20_Zookeeper_服务器节点动态上下线案例分析
21_Zookeeper_服务器节点动态上下线案例注册代码
22_Zookeeper_服务器节点动态上下线案例全部代码实现
23_Zookeeper_企业面试真题
01_HadoopHA_HDFS的单点故障
02_HadoopHA_手动故障转移原理
03_HadoopHA_手动故障转移配置
04_HadoopHA_手动故障转移测试
05_HadoopHA_手动故障转移注意点
06_HadoopHA_自动故障转移原理
07_HadoopHA_自动故障转移配置&测试
08_HadoopHA_自动故障转移上传数据测试
09_HadoopHA_YARNHA
10_HadoopHA_HDFS联邦概述
01_Hive入门_课程介绍
02_Hive入门_概念介绍
03_Hive入门_优缺点
04_Hive入门_架构
05_Hive入门_与数据库的比较
06_Hive安装_安装&初试牛刀
07_Hive安装_从文件系统加载数据
08_Hive安装_安装MySQL
09_Hive安装_元数据存储在MySQL
10_Hive安装_回顾
11_Hive安装_JDBC访问
12_Hive安装_常用交互命令
13_Hive安装_其他命令
14_Hive安装_常见配置信息
15_Hive数据类型_基本&集合类型
16_Hive数据类型_类型转换
17_HiveDDL_数据库的增删改查
18_HiveDDL_建表语法
19_HiveDDL_内外部表
20_HiveDDL_分区表概念&简单使用
21_HiveDDL_分区表基本操作
22_HiveDDL_分区表注意事项
23_HiveDDL_修改表
24_HiveDML_使用Load方式加载数据
25_HiveDML_使用insert&as select加载数据
26_HiveDML_使用Location加载数据
27_HiveDML_回顾
28_HiveDML_导出数据到文件系统
29_HiveDML_导出数据的其他方式
30_HiveDML_清空表
31_Hive查询_基础查询
32_Hive查询_Where&判断式
33_Hive查询_Join
34_Hive查询_全局排序Order By
35_Hive查询_排序
36_Hive查询_4种排序总结
37_Hive查询_分桶表创建&导入数据
38_Hive查询_分桶表抽样查询
39_Hive函数_常用函数空值赋值
40_Hive函数_常用函数时间类
41_Hive函数_常用函数Case&if
42_Hive函数_常用函数行转列
43_Hive函数_常用函数列转行
44_Hive函数_窗口函数需求一
45_Hive函数_窗口需求二&三
46_Hive函数_窗口函数需求四
47_Hive函数_回顾
48_Hive函数_窗口函数回顾
49_Hive函数_窗口函数二
50_Hive函数_排名函数
51_Hive案例_课堂练习(一)
52_Hive案例_课堂练习(二-1)
53_Hive案例_课堂练习(二-2)
54_Hive案例_蚂蚁森林(1-1)
55_Hive案例_蚂蚁森林(1-2)
56_Hive案例_蚂蚁森林(2)解法一
57_Hive案例_蚂蚁森林(2)解法二
58_Hive案例_蚂蚁森林(2)解法三
59_Hive函数_回顾
60_Hive函数_系统函数查看
61_Hive函数_自定义函数介绍
62_Hive函数_自定义UDF
63_Hive函数_自定义UDF(2)
64_Hive函数_自定义UDTF(分析)
65_Hive函数_自定义UDTF(初始化方法)
66_Hive函数_自定义UDTF(核心方法)
67_Hive函数_自定义UDTF(打包测试)
68_Hive压缩存储_Snappy压缩方式
69_Hive压缩存储_行存储&列存储
70_Hive压缩存储_Text&ORC&Parquet文件格式对比
71_Hive压缩存储_存储格式&压缩方式结合使用
72_Hive优化_Fetch抓取&本地模式
73_Hive优化_大表Join大表&小表
74_Hive优化_MapJoin
75_Hive优化_回顾
76_Hive优化_Group By
77_Hive优化_笛卡尔积&行列过滤
78_Hive优化_动态分区
79_Hive优化_分区分桶&MR
80_Hive优化_9.5-9.10
81_Hive案例_谷粒影音需求分析
82_Hive案例_MRETL分析
83_Hive案例_MR ETL Mapper
84_Hive案例_MR ETL清洗数据逻辑
85_Hive案例_MR ETL Driver
86_Hive案例_谷粒影音数据准备
87_Hive案例_谷粒影音需求(一)
88_Hive案例_谷粒影音需求(二)
89_Hive案例_谷粒影音需求(三)
90_Hive案例_谷粒影音需求(四)
91_Hive案例_谷粒影音需求(五、六&八)
92_Hive案例_谷粒影音需求(七)
01_Flume入门_课程介绍
02_Flume入门_概念
03_Flume入门_基础架构
04_Flume入门_组件介绍
05_Flume入门_安装
06_Flume案例_官方案例(配置)
07_Flume案例_官方案例(测试)
08_Flume案例_监控本地变化文件(需求分析)
09_Flume案例_监控本地变化文件(案例一配置文件)
10_Flume案例_监控本地变化文件(案例一测试)
11_Flume案例_监控本地变化文件(案例二配置文件)
12_Flume案例_监控本地变化文件(案例二测试)
13_Flume案例_监控本地文件夹(配置文件)
14_Flume案例_监控本地文件夹(案例测试)
15_Flume案例_断点续传文件(配置文件)
16_Flume案例_断点续传文件(案例测试)
17_Flume高级_事务性
18_Flume高级_传输详细流程
19_Flume高级_拓扑结构
20_Flume高级_回顾
21_Flume高级_Channel选择器副本机制(需求分析)
22_Flume高级_Channel选择器副本机制(配置文件)
23_Flume高级_Channel选择器副本机制(案例测试)
24_Flume高级_Sink组故障转移(需求分析)
25_Flume高级_Sink组故障转移(案例测试)
26_Flume高级_Sink组负载均衡(配置&测试)
27_Flume高级_聚合组(需求分析)
28_Flume高级_聚合组(配置文件)
29_Flume高级_聚合组(案例测试)
30_Flume高级_自定义拦截器(需求分析)
31_Flume高级_自定义拦截器(代码实现)
32_Flume高级_自定义拦截器(配置文件)
33_Flume高级_自定义拦截器(案例测试)
34_Flume高级_自定义Source(需求分析)
35_Flume高级_自定义Source(代码实现)
36_Flume高级_自定义Source(案例测试)
37_Flume高级_回顾
38_Flume高级_自定义Sink(需求分析)
39_Flume高级_自定义Sink(代码实现)
40_Flume高级_自定义Sink(打包测试)
41_Flume监控_Ganglia安装
42_Flume监控_Ganglia测试
43_Flume_面试题
01_Kafka入门_课程介绍
02_Kafka入门_定义
03_Kafka入门_消息队列
04_Kafka入门_消费模式
05_Kafka入门_基础架构
06_Kafka入门_安装&启动&关闭
07_Kafka入门_命令行操作Topic增删查
08_Kafka入门_命令行控制台生产者消费者测试
09_Kafka入门_数据日志分离
10_Kafka入门_回顾
11_Kafka高级_工作流程
12_Kafka高级_文件存储
13_Kafka高级_生产者分区策略
14_Kafka高级_生产者ISR
15_Kafka高级_生产者ACk机制
16_Kafka高级_数据一致性问题
17_Kafka高级_ExactlyOnce
18_Kafka高级_生产者总结
19_Kafka高级_消费者分区分配策略
20_Kafka高级_消费者offset的存储
21_Kafka高级_消费者组案例
22_Kafka高级_高效读写&ZK作用
23_Kafka高级_Ranger分区再分析
24_Kafka高级_事务
25_Kafka高级_API生产者流程
26_Kafka高级_API普通生产者
27_Kafka高级_回顾
28_Kafka案例_API带回调函数的生产者
29_Kafka案例_API生产者分区策略测试
30_Kafka案例_API自定义分区的生成者
31_Kafka案例_API同步发送生成者
32_Kafka案例_API简单消费者
33_Kafka案例_API消费者重置offset
34_Kafka案例_消费者保存offset读取问题
35_Kafka案例_API消费者手动提交offset
36_Kafka案例_API自定义拦截器(需求分析)
37_Kafka案例_API自定义拦截器(代码实现)
38_Kafka案例_API自定义拦截器(案例测试)
39_Kafka案例_监控Eagle的安装
40_Kafka案例_监控Eagle的使用
41_Kafka案例_Kafka之与Flume对接
42_Kafk之与Flume对接(数据分类)
43_Kafka之Kafka面试题
01_HBase入门_课程介绍
02_HBase入门_定义
03_HBase入门_逻辑结构
04_HBase入门_物理结构
05_HBase入门_数据模型
06_HBase入门_基础架构
07_HBase入门_集群安装
08_HBase入门_集群启动&关闭
09_HBase入门_命令行操作DDL(表)
10_HBase入门_命令行操作DDL(命名空间)
11_HBase入门_命令行操作DML(增&查)
12_HBase入门_命令行操作DML(改&删)
13_HBase入门_命令行操作DML(多版本)
14_HBase高级_详细架构
15_HBase高级_写数据流程
16_HBase高级_写数据流程(源码流程)
17_HBase高级_回顾
18_HBase高级_Flush流程
19_HBase高级_读数据流程
20_HBase高级_Compact流程
21_HBase高级_读写扩展
22_HBase高级_数据真正删除时间
23_HBase高级_Split流程
24_HBaseAPI_DDL判断表是否存在(旧API)
25_HBaseAPI_DDL判断表是否存在(新API)
26_HBaseAPI_DDL创建表
27_HBaseAPI_DDL删除表
28_HBaseAPI_DDL创建命名空间
29_HBaseAPI_DML插入数据
30_HBaseAPI_DML获取数据(get)
31_HBaseAPI_回顾
32_HBaseAPI_DML获取数据(Scan)
33_HBaseAPI_DML删除数据(命令行删除数据)
34_HBaseAPI_DML删除数据(分析)
35_HBaseAPI_DML删除数据(实操)
36_HBaseAPI_DML删除数据(扩展)
37_HBaseAPI_与MR交互(官方案例)
38_HBaseAPI_与MR交互MR1(Mapper&Reducer完成)
39_HBaseAPI_与MR交互MR1(Driver&测试完成)
40_HBaseAPI_与MR交互MR2(Mapper完成)
41_HBaseAPI_与MR交互MR2(Reducer&Driver&测试完成)
42_HBaseAPI_与Hive对比
43_HBaseAPI_与Hive对接(失败)
44_HBaseAPI_与Hive对接(成功)
45_HBaseAPI_与Hive对接(案例二)
46_HBaseAPI_回顾
47_HBase优化_高可用
48_HBase优化_预分区
49_HBase优化_RowKey设计原则
50_HBase优化_RowKey情景设计
51_HBase优化_内存&其他
52_HBase案例_谷粒微博(需求分析)
53_HBase案例_谷粒微博(项目架构)
54_HBase案例_谷粒微博(HBaseUtil类封装)
55_HBase案例_谷粒微博(定义常量)
56_HBase案例_谷粒微博(发布微博第一部分)
57_HBase案例_谷粒微博(发布微博第二部分)
58_HBase案例_谷粒微博(关注用户第一部分)
59_HBase案例_谷粒微博(关注用户第二部分分析)
60_HBase案例_谷粒微博(关注用户第二部分代码实现)
61_HBase案例_谷粒微博(取关用户)
62_HBase案例_谷粒微博(获取初始化页面数据)
63_HBase案例_谷粒微博(获取某个人所有微博)
64_HBase案例_谷粒微博(测试)
01_Azkaban_简介
02_Azkaban_特点
03_Azkaban_架构
04_Azkaban_Web_server_配置
05_Azkaban_Executor_server_配置
06_Azkaban_Web简介
07_Azkaban_基础使用
08_Azkaban_调度Shell脚本
09_Azkaban_通知邮件
10_Azkaban_多任务工作流程配置Part564
11_Azkaban_Java_任务配置Part565
12_Azkaban_HDFS_任务配置Part566
13_Azkaban_MR_任务配置Part567
14_Azkaban_Hive_任务配置Part568
15_Azkaban_传参Part569
01_电信客服_项目介绍
02_项目架构说明
03_数据生产_功能介绍
04_数据生产_搭建项目结构
05_数据生产_创建共通的基础类
06_数据生产_创建生产者对象
07_数据生产_获取通讯录数据
08_数据生产_随机生成主被叫电话号码
09_数据生产_构建通话记录
10_数据生产_将数据输出到日志文件中
11_数据生产_将项目打成jar包发布到Linux中
12_数据消费_Kafka控制台消费Flume采集的生产数据
13_数据消费_Kafka JavaAPI消费Flume采集的生产数据
14_数据消费_Hbase数据访问封装
15_数据消费_生成分区键
16_数据消费_生成分区号
17_数据消费_消费数据测试
18_数据消费_Hbase操作再封装
19_数据消费_根据分区号查询范围数据
20_数据消费_区分保存主叫被叫用户数据
21_数据消费_协处理的开发和测试
22_数据消费_协处理的补充说明
23_数据分析_Mysql表设计
24_数据分析_数据统计流程分析
25_数据分析_MapperReducer架构搭建
26_数据分析_Hbase数据输出到Mysql中
27_数据分析_在Outputformat对象中获取缓存数据
28_数据分析_使用Redis保存缓存数据
29_数据分析_自定义KV & 总结
30_数据展示_配置Web项目 & 服务器
31_数据展示_集成SSM框架
32_数据展示_SSM框架测试
33_数据展示_查询用户指定时间的通话记录
34_数据展示_使用Echarts展示统计结果
01_Oozie_课程介绍
02_Oozie_功能模块
03_Oozie_快速部署CDH版本Hadoop
04_Oozie_部署环境准备
05_Oozie_发布&启动
06_Oozie_调度Shell脚本案例
07_Oozie_逻辑调度多个任务案例
08_Oozie_调度MR任务
09_Oozie_调度定时任务
01_电商数仓_数仓项目介绍
02_数仓采集_用户行为采集课程介绍
03_数仓采集_数仓的概念
04_数仓采集_项目需求
05_数仓采集_项目技术选型
06_数仓采集_系统数据流程设计
07_数仓采集_框架版本选型
08_数仓采集_框架版本具体型号
09_数仓采集_服务器选型
10_数仓采集_集群资源规划设计
11_数仓采集_测试集群服务器规划
12_数仓采集_埋点数据基本格式
13_数仓采集_事件日志数据(上)
14_数仓采集_事件日志数据(下)
15_数仓采集_日志生成代码编写
16_数仓采集_Logback日志打印控制
17_数仓采集_服务器准备
18_数仓采集_Hadoop安装
19_数仓采集_项目经验之HDFS多目录配置
20_数仓采集_项目经验之支持LZO压缩配置
21_数仓采集_项目经验之基准测试
22_数仓采集_项目经验之HDFS参数调优
23_数仓采集_Zookeeper安装
24_数仓采集_项目经验之ZK集群启动停止脚本
25_数仓采集_生成测试日志
26_数仓采集_集群日志生成启动脚本
27_数仓采集_集群时间同步修改脚本
28_数仓采集_集群所有进程查看脚本
29_数仓采集_每日回顾
30_数仓采集_日志采集Flume安装
31_数仓采集_Flume组件及配置
32_数仓采集_日志采集Flume配置分析
33_数仓采集_ETL拦截器
34_数仓采集_分类型拦截器
35_数仓采集_日志采集Flume启动停止脚本
36_数仓采集_Kafka集群安装
37_数仓采集_Kafka集群启动停止脚本
38_数仓采集_Kafka Manager安装及脚本
39_数仓采集_项目经验之Kafka压力测试
40_数仓采集_项目经验之Kafka机器数量计算
41_数仓采集_消费Kafka数据Flume
42_数仓采集_项目经验之Flume内存优化
43_数仓采集_项目经验之Flume组件
44_数仓采集_采集通道启动停止脚本
45_数仓采集_调试经验
46_数仓采集_面试题(Linux、Shell、Hadoop)
47_数仓采集_面试题(Flume、Kafka)
48_用户行为数仓_每日回顾
49_用户行为数仓_用户行为数仓课程介绍
50_用户行为数仓_为什么要分层
51_用户行为数仓_数仓分层
52_用户行为数仓_数据集市与数据仓库概念
53_用户行为数仓_数仓命名规范
54_用户行为数仓_Hive&MySQL安装
55_用户行为数仓_Hive运行引擎Tez
56_用户行为数仓_项目经验之元数据备份
57_用户行为数仓_ODS层启动日志和事件日志表创建
58_用户行为数仓_ODS层加载数据脚本
59_用户行为数仓_DWD层启动日志建表及导入数据
60_用户行为数仓_DWD层启动表加载数据脚本
61_用户行为数仓_DWD层事件基础明细表创建
62_用户行为数仓_自定义UDF函数(解析公共字段)
63_用户行为数仓_自定义UDTF函数(解析事件日志基础明细表)
64_用户行为数仓_DWD层数据解析脚本
65_用户行为数仓_DWD层事件表加载数据脚本
66_用户行为数仓_今日回顾
67_用户行为数仓_业务术语
68_用户行为数仓_日期的系统函数
69_用户行为数仓_每日活跃设备明细
70_用户行为数仓_每周活跃设备明细
71_用户行为数仓_每月活跃设备明细
72_用户行为数仓_DWS层加载数据脚本
73_用户行为数仓_需求一:ADS层日活、周活、月活用户数
74_用户行为数仓_每日新增设备明细表
75_用户行为数仓_需求二:ADS层每日新增设备表
76_用户行为数仓_用户留存分析
77_用户行为数仓_1、2、3、n日留存用户明细
78_用户行为数仓_需求三:ADS层留存用户和留存比率
79_用户行为数仓_新数据准备
80_用户行为数仓_需求四:沉默用户
81_用户行为数仓_需求五:本周回流用户数
82_用户行为数仓_需求六:流失用户
83_用户行为数仓_需求七:最近连续3周活跃用户数
84_用户行为数仓_需求八:最近七天内连续三天活跃用户数
85_用户行为数仓_用户行为数仓业务总结
86_用户行为数仓_Hive企业面试题总结
87_业务数仓_业务数仓课程介绍
88_业务数仓_电商业务与数据结构简介
89_业务数仓_表的分类
90_业务数仓_同步策略
91_业务数仓_范式理论
92_业务数仓_雪花模型、星型模型和星座模型
93_业务数仓_配置Hadoop支持Snappy压缩
94_业务数仓_业务数据生成
95_业务数仓_Sqoop安装及参数
96_业务数仓_Sqoop导入数据
97_业务数仓_ODS层建表及数据导入
98_业务数仓_DWD层建表及导入数据
99_业务数仓_需求讲解
100_业务数仓_DWS层之用户行为宽表
101_业务数仓_需求九:GMV成交总额
102_业务数仓_需求十:ADS层之新增用户占日活跃用户比率
103_业务数仓_需求十一:ADS层之用户行为漏斗分析
104_业务数仓_用户购买商品明细表(宽表)
105_业务数仓_需求十二:ADS层品牌复购率
106_业务数仓_需求十三:求每个等级的用户对应的复购率前十的商品排行(学生分享)
107_业务数仓_数据可视化
108_业务数仓_Azkaban安装
109_业务数仓_GMV指标获取的全调度流程
110_业务数仓_拉链表理论
111_业务数仓_拉链表制作
112_业务数仓_业务数仓项目总结
113_业务数仓_即席数仓课程介绍
114_即席数仓_Presto简介
115_即席数仓_Presto安装及使用
116_即席数仓_Presto优化
117_即席数仓_Druid概念、特点、场景
118_即席数仓_Druid对比其他框架
119_即席数仓_Druid框架原理
120_即席数仓_Druid数据结构
121_即席数仓_Druid安装
122_面试题_总体架构
123_面试题_技术框架
124_面试题_用户行为、业务数据、即席查询
125_面试题_开发经验
126_CDH数仓_课程介绍
127_CDH数仓_CM简介及架构
128_CDH数仓_CM安装环境准备
129_CDH数仓_CM、Hadoop、Zookeeper安装
130_CDH数仓_采集Flume的安装
131_CDH数仓_Kafka安装
132_CDH数仓_测试Flume和Kafka安装
133_CDH数仓_消费Flume配置完成
134_CDH数仓_Hive、Oozie、Hue安装
135_CDH数仓_用户行为数仓ODS层导数据
136_CDH数仓_用户行为数仓完结
137_CDH数仓_业务数据生成
138_CDH数仓_业务数仓完结
139_CDH数仓_Oozie执行前准备
140_CDH数仓_Oozie任务编写及运行
141_CDH数仓_即席查询数仓搭建Impala
142_CDH数仓_Spark安装及总结

01-Linux-基本介绍
02-Linux-发展历程
03-Linux-和Unix关系
04-Linux-安装VM
05-Linux-安装Centos的准备工作
06-Linux-安装Centos的步骤
07-Linux-Centos终端和联网的说明
08-Linux_文件系统目录结构
09-Linux-远程登录XShell5
10-Linux-远程传输文件XFTP5
11-Linux-SecureCRT安装使用
12-Linux-Vi和Vim的使用
13-Linux-关机重启注销
14-Linux-用户管理 创建用户指定密码
15-Linux-用户管理 删除用户
16-Linux-用户管理 查询切换用户
17-Linux-用户管理 组的管理
18-Linux-用户管理 用户和组的配置文件
19-Linux-实用指令 运行级别和找回root密码
20-Linux-实用指令 帮助指令
21-Linux-实用指令 pwd ls cd
22-Linux-实用指令 mkdir rmdir
23-Linux-实用指令 touch cp
24-Linux-实用指令 rm mv
25-Linux-实用指令 cat more less
26-Linux-实用指令 重定向和追加
27-Linux-实用指令 echo head tail
28-Linux-实用指令 ln history
29-Linux-实用指令 date cal
30-Linux-实用指令 find locate grep 管道符
31-Linux-实用指令 压缩和解压类指令
32-Linux-组管理
33-Linux-权限详细介绍
34-Linux-权限管理
35-Linux-权限最佳实践
36-Linux-任务调度基本说明
37-Linux-任务调度应用实例
38-Linux-磁盘分区介绍
39-Linux-分区
40-Linux-给Linux添加一块新硬盘
41-Linux-磁盘查询实用指令
42-Linux-网络配置原理和说明
43-Linux-自动获取IP
44-Linux-修改配置文件指定IP
45-Linux-修改Linux主机名
46-Linux-进程介绍和查询
47-Linux-进程管理 终止进程
48-Linux-进程管理 服务管理
49-Linux-进程管理 监控服务
50-Linux-RPM包管理
51-Linux-YUM
52-Linux-企业真实面试题
53-Linux-结束语-程序人生感悟
01_Shell_课程介绍
02_Shell_概述
03_Shell_解析器
04_Shell_HelloWorld案例
05_Shell_多命令操作案例
06_Shell_系统变量和自定义变量案例
07_Shell_$n案例
08_Shell_$#案例
09_Shell_$※$@案例
10_Shell_$?案例
11_Shell_运算符
12_Shell_条件判断案例
13_Shell_回顾
14_Shell_if案例
15_Shell_Case案例
16_Shell_For1案例
17_Shell_For2案例
18_Shell_While案例
19_Shell_Read案例
20_Shell_BaseName&DirName案例
21_Shell_自定义函数案例
22_Shell_Cut案例
23_Shell_Sed案例
24_Shell_Awk案例
25_Shell_Sort案例
26_Shell_企业真题讲解
01_课程简介_大数据课程
02_课程简介_Hadoop课程
03_入门_大数据概念
04_入门_大数据特点(4V)
05_入门_大数据应用场景
06_入门_大数据发展前景
07_入门_大数据部门业务流程分析
08_入门_大数据部门组织结构(重点)
09_Hadoop_是什么
10_Hadoop_发展历史
11_Hadoop_三大发行版本
12_Hadoop_优势(4高)
13_Hadoop_1.x和2.x区别
14_Hadoop_组成
15_Hadoop_大数据技术生态体系
16_Hadoop_推荐系统框架图
17_环境搭建_虚拟机准备
18_环境搭建_JDK安装
19_环境搭建_Hadoop安装
20_环境搭建_Hadoop目录结构
21_环境搭建_Hadoop官网手册
22_本地模式_Grep官方案例
23_本地模式_WordCount官方案例
24_伪分布式_启动HDFS并运行MR程序
25_伪分布式_Log日志查看和NN格式化前强调
26_伪分布式_NameNode格式化注意事项
27_伪分布式_启动YARN并运行MR程序
28_伪分布式_配置历史服务器
29_伪分布式_配置日志聚集
30_伪分布式_配置文件说明
31_完全分布式_虚拟机环境准备
32_完全分布式_scp案例
33_完全分布式_rsync案例
34_完全分布式_集群分发脚本xsync
35_完全分布式_集群配置
36_完全分布式_集群单节点启动
37_完全分布式_集群ssh配置
38_完全分布式_集群群起
39_完全分布式_集群文件存储路径说明
40_完全分布式_集群启动停止方式总结
41_每日回顾
42_完全分布式_RM启动注意事项
43_完全分布式_Crondtab定时任务调度
44_完全分布式_集群时间同步
45_Hadoop源码编译_意义
46_Hadoop源码编译_说明
47_Hadoop源码编译_具体流程
48_HDFS_课程介绍
49_HDFS_产生背景及定义
50_HDFS_优缺点
51_HDFS_组成架构
52_HDFS_块的大小设置
53_HDFS_Shell命令(开发重点)
54_HDFS_副本数设置
55_HDFS_客户端环境准备
56_HDFS_客户端环境测试
57_每日回顾
58_HDFS_文件上传_案例
59_HDFS_参数优先级说明_案例
60_HDFS_文件下载_案例
61_HDFS_文件夹删除_案例
62_HDFS_修改文件的名称_案例
63_HDFS_查看文件的详情_案例
64_HDFS_判断是文件还是文件夹_案例
65_HDFS_文件IO流上传_案例
66_HDFS_文件IO流下载操作_案例
67_HDFS_定位读取文件_案例
68_HDFS_写数据流程(面试重点)
69_HDFS_网络拓扑-节点距离计算
70_HDFS_机架感知-副本存储节点选择
71_HDFS_读数据流程(面试重点)
72_HDFS_NN和2NN工作机制(面试重点)
73_HDFS_Fsimage和Edits解析
74_HDFS_CheckPoint时间设置
75_HDFS_NN故障处理_案例
76_HDFS_安全模式
77_HDFS_集群安全模式_案例
78_HDFS_NN多目录配置_案例
79_每日回顾
80_HDFS_DN工作机制(面试重点)
81_HDFS_数据完整性
82_HDFS_掉线时限参数设置
83_HDFS_服役新节点_案例
84_HDFS_添加白名单_案例
85_HDFS_黑名单退役_案例
86_HDFS_DN多目录配置_案例
87_HDFS新特性_集群间数据拷贝
88_HDFS新特性_小文件归档案例
89_HDFS新特性_回收站案例
90_HDFS新特性_快照管理
91_MapReduce_课程介绍
92_MapReduce_概述
93_MapReduce_优缺点
94_MapReduce_核心思想
95_MapReduce_进程
96_MapReduce_官方案例源码解析和数据类型
97_MapReduce_编程规范
98_MapReduce_WordCount案例分析
99_MapReduce_WordCount案例Mapper
100_MapReduce_WordCount案例Reducer
101_MapReduce_WordCount案例Driver
102_MapReduce_WordCount案例测试
103_MapReduce_WordCount案例Debug调试
104_MapReduce_WordCount案例在集群上运行
105_每日回顾
106_MapReduce_序列化概述
107_MapReduce_序列化自定义步骤
108_MapReduce_序列化案例分析
109_MapReduce_序列化案例FlowBean
110_MapReduce_序列化案例Mapper
111_MapReduce_序列化案例Reducer
112_MapReduce_序列化案例Driver
113_MapReduce_序列化案例Debug调试
114_MapReduce_切片和MapTask并行度决定机制
115_MapReduce_Job提交流程源码解析
116_MapReduce_Job切片机制源码解析
117_MapReduce_FileInputFormat切片机制和配置参数
118_MapReduce_CombineTextInputFormat理论
119_MapReduce_CombineTextInputFormat案例
120_MapReduce_FileInputFormat实现类
121_MapReduce_TextInputFormat实现类
122_每日回顾
123_MapReduce_KeyValueTextInputFormat案例分析
124_MapReduce_KeyValueTextInputFormat案例实现
125_MapReduce_NLineInputFormat案例分析
126_MapReduce_NLineInputFormat案例实现
127_MapReduce_自定义InputFormat步骤
128_MapReduce_自定义InputFormat案例
129_MapReduce_自定义InputFormat案例Debug
130_MapReduce_InputFormat实现类总结
131_MapReduce_工作流程(面试重点)
132_MapReduce_Shuffle机制(面试重点)
133_MapReduce_HashPartition默认分区
134_MapReduce_Partition分区案例
135_MapReduce_Partition分区案例总结
136_每日回顾
137_MapReduce_回顾分区
138_MapReduce_排序概述
139_MapReduce_排序分类
140_MapReduce_全排序案例分析
141_MapReduce_全排序案例FlowBean
142_MapReduce_全排序案例Mapper
143_MapReduce_全排序案例Mapper_已处理
144_MapReduce_全排序案例实现及测试
145_MapReduce_分区排序案例实现及测试
146_MapReduce_Debug调试思想
147_MapReduce_Combiner理论
148_MapReduce_Combiner案例实现
149_MapReduce_分组排序案例分析
150_MapReduce_分组排序案例OrderBean
151_MapReduce_分组排序案例Mapper
152_MapReduce_分组排序案例Driver
153_MapReduce_分组排序案例排序类
153_MapReduce_分组排序案例排序类
155_MapReduce_分组排序案例扩展
156_MapReduce_MapTask工作机制(面试重点)
157_MapReduce_ReduceTask工作机制(面试重点)
158_MapReduce_ReduceTask个数设置
159_MapReduce_Shuffle机制(面试重点)
160_MapReduce_工作流程源码分析
161_MapReduce_OutPutFormat接口实现类
162_MapReduce_自定义OutputFormat案例分析
163_MapReduce_自定义OutputFormat案例实现
164_MapReduce_ReduceJoin理论
165_MapReduce_ReduceJoin案例分析
166_MapReduce_ReduceJoin案例TableBean
167_MapReduce_ReduceJoin案例Mapper
168_MapReduce_ReduceJoin案例Reduce
169_MapReduce_ReduceJoin案例Driver
170_MapReduce_ReduceJoin案例Debug和总结
171_MapReduce_MapJoin案例分析
172_MapReduce_MapJoin案例缓存文件处理
173_MapReduce_MapJoin案例测试
174_MapReduce_计数器应用
175_MapReduce_数据清洗案例
176_MapReduce_开发总结
177_压缩_概述
178_压缩_MR支持的压缩编码
179_压缩_方式选择
180_压缩_位置选择
181_压缩_参数设置
182_压缩_压缩案例
183_压缩_解压缩案例
184_压缩_Map和Reduce启用压缩案例
185_YARN_基本架构
186_YARN_工作机制
187_YARN_作业提交全流程
188_YARN_资源调度器
189_YARN_任务推测执行
190_企业调优_MR跑的慢的原因
191_企业调优_MR优化方法
192_企业调优_HDFS小文件处理
193_扩展案例_多Job串联案例分析
194_扩展案例_多Job串联案例第一个Job
195_扩展案例_多Job串联案例完成
196_扩展案例_TopN案例
197_扩展案例_找共同粉丝(学生版1)
198_扩展案例_找共同粉丝(学生版2)
199_Hadoop总结_企业真实面试题讲解
200_Hadoop总结_开发重点
01_Zookeeper_课程介绍
02_Zookeeper_概述
03_Zookeeper_特点
04_Zookeeper_数据结构
05_Zookeeper_应用场景
06_Zookeeper_下载地址
07_Zookeeper_本地模式安装
08_Zookeeper_配置参数解读
09_Zookeeper_选举机制
10_Zookeeper_节点类型
11_Zookeeper_分布式安装
12_Zookeeper_Shell命令操作
13_Zookeeper_Stat结构体
14_Zookeeper_监听器原理
15_Zookeeper_写数据流程
16_Zookeeper_创建ZooKeeper客户端
17_Zookeeper_创建一个节点
18_Zookeeper_获取子节点并监听节点变化
19_Zookeeper_判断节点是否存在
20_Zookeeper_服务器节点动态上下线案例分析
21_Zookeeper_服务器节点动态上下线案例注册代码
22_Zookeeper_服务器节点动态上下线案例全部代码实现
23_Zookeeper_企业面试真题
01_HadoopHA_HDFS的单点故障
02_HadoopHA_手动故障转移原理
03_HadoopHA_手动故障转移配置
04_HadoopHA_手动故障转移测试
05_HadoopHA_手动故障转移注意点
06_HadoopHA_自动故障转移原理
07_HadoopHA_自动故障转移配置&测试
08_HadoopHA_自动故障转移上传数据测试
09_HadoopHA_YARNHA
10_HadoopHA_HDFS联邦概述
01_Hive入门_课程介绍
02_Hive入门_概念介绍
03_Hive入门_优缺点
04_Hive入门_架构
05_Hive入门_与数据库的比较
06_Hive安装_安装&初试牛刀
07_Hive安装_从文件系统加载数据
08_Hive安装_安装MySQL
09_Hive安装_元数据存储在MySQL
10_Hive安装_回顾
11_Hive安装_JDBC访问
12_Hive安装_常用交互命令
13_Hive安装_其他命令
14_Hive安装_常见配置信息
15_Hive数据类型_基本&集合类型
16_Hive数据类型_类型转换
17_HiveDDL_数据库的增删改查
18_HiveDDL_建表语法
19_HiveDDL_内外部表
20_HiveDDL_分区表概念&简单使用
21_HiveDDL_分区表基本操作
22_HiveDDL_分区表注意事项
23_HiveDDL_修改表
24_HiveDML_使用Load方式加载数据
25_HiveDML_使用insert&as select加载数据
26_HiveDML_使用Location加载数据
27_HiveDML_回顾
28_HiveDML_导出数据到文件系统
29_HiveDML_导出数据的其他方式
30_HiveDML_清空表
31_Hive查询_基础查询
32_Hive查询_Where&判断式
33_Hive查询_Join
34_Hive查询_全局排序Order By
35_Hive查询_排序
36_Hive查询_4种排序总结
37_Hive查询_分桶表创建&导入数据
38_Hive查询_分桶表抽样查询
39_Hive函数_常用函数空值赋值
40_Hive函数_常用函数时间类
41_Hive函数_常用函数Case&if
42_Hive函数_常用函数行转列
43_Hive函数_常用函数列转行
44_Hive函数_窗口函数需求一
45_Hive函数_窗口需求二&三
46_Hive函数_窗口函数需求四
47_Hive函数_回顾
48_Hive函数_窗口函数回顾
49_Hive函数_窗口函数二
50_Hive函数_排名函数
51_Hive案例_课堂练习(一)
52_Hive案例_课堂练习(二-1)
53_Hive案例_课堂练习(二-2)
54_Hive案例_蚂蚁森林(1-1)
55_Hive案例_蚂蚁森林(1-2)
56_Hive案例_蚂蚁森林(2)解法一
57_Hive案例_蚂蚁森林(2)解法二
58_Hive案例_蚂蚁森林(2)解法三
59_Hive函数_回顾
60_Hive函数_系统函数查看
61_Hive函数_自定义函数介绍
62_Hive函数_自定义UDF
63_Hive函数_自定义UDF(2)
64_Hive函数_自定义UDTF(分析)
65_Hive函数_自定义UDTF(初始化方法)
66_Hive函数_自定义UDTF(核心方法)
67_Hive函数_自定义UDTF(打包测试)
68_Hive压缩存储_Snappy压缩方式
69_Hive压缩存储_行存储&列存储
70_Hive压缩存储_Text&ORC&Parquet文件格式对比
71_Hive压缩存储_存储格式&压缩方式结合使用
72_Hive优化_Fetch抓取&本地模式
73_Hive优化_大表Join大表&小表
74_Hive优化_MapJoin
75_Hive优化_回顾
76_Hive优化_Group By
77_Hive优化_笛卡尔积&行列过滤
78_Hive优化_动态分区
79_Hive优化_分区分桶&MR
80_Hive优化_9.5-9.10
81_Hive案例_谷粒影音需求分析
82_Hive案例_MRETL分析
83_Hive案例_MR ETL Mapper
84_Hive案例_MR ETL清洗数据逻辑
85_Hive案例_MR ETL Driver
86_Hive案例_谷粒影音数据准备
87_Hive案例_谷粒影音需求(一)
88_Hive案例_谷粒影音需求(二)
89_Hive案例_谷粒影音需求(三)
90_Hive案例_谷粒影音需求(四)
91_Hive案例_谷粒影音需求(五、六&八)
92_Hive案例_谷粒影音需求(七)
01_Flume入门_课程介绍
02_Flume入门_概念
03_Flume入门_基础架构
04_Flume入门_组件介绍
05_Flume入门_安装
06_Flume案例_官方案例(配置)
07_Flume案例_官方案例(测试)
08_Flume案例_监控本地变化文件(需求分析)
09_Flume案例_监控本地变化文件(案例一配置文件)
10_Flume案例_监控本地变化文件(案例一测试)
11_Flume案例_监控本地变化文件(案例二配置文件)
12_Flume案例_监控本地变化文件(案例二测试)
13_Flume案例_监控本地文件夹(配置文件)
14_Flume案例_监控本地文件夹(案例测试)
15_Flume案例_断点续传文件(配置文件)
16_Flume案例_断点续传文件(案例测试)
17_Flume高级_事务性
18_Flume高级_传输详细流程
19_Flume高级_拓扑结构
20_Flume高级_回顾
21_Flume高级_Channel选择器副本机制(需求分析)
22_Flume高级_Channel选择器副本机制(配置文件)
23_Flume高级_Channel选择器副本机制(案例测试)
24_Flume高级_Sink组故障转移(需求分析)
25_Flume高级_Sink组故障转移(案例测试)
26_Flume高级_Sink组负载均衡(配置&测试)
27_Flume高级_聚合组(需求分析)
28_Flume高级_聚合组(配置文件)
29_Flume高级_聚合组(案例测试)
30_Flume高级_自定义拦截器(需求分析)
31_Flume高级_自定义拦截器(代码实现)
32_Flume高级_自定义拦截器(配置文件)
33_Flume高级_自定义拦截器(案例测试)
34_Flume高级_自定义Source(需求分析)
35_Flume高级_自定义Source(代码实现)
36_Flume高级_自定义Source(案例测试)
37_Flume高级_回顾
38_Flume高级_自定义Sink(需求分析)
39_Flume高级_自定义Sink(代码实现)
40_Flume高级_自定义Sink(打包测试)
41_Flume监控_Ganglia安装
42_Flume监控_Ganglia测试
43_Flume_面试题
01_Kafka入门_课程介绍
02_Kafka入门_定义
03_Kafka入门_消息队列
04_Kafka入门_消费模式
05_Kafka入门_基础架构
06_Kafka入门_安装&启动&关闭
07_Kafka入门_命令行操作Topic增删查
08_Kafka入门_命令行控制台生产者消费者测试
09_Kafka入门_数据日志分离
10_Kafka入门_回顾
11_Kafka高级_工作流程
12_Kafka高级_文件存储
13_Kafka高级_生产者分区策略
14_Kafka高级_生产者ISR
15_Kafka高级_生产者ACk机制
16_Kafka高级_数据一致性问题
17_Kafka高级_ExactlyOnce
18_Kafka高级_生产者总结
19_Kafka高级_消费者分区分配策略
20_Kafka高级_消费者offset的存储
21_Kafka高级_消费者组案例
22_Kafka高级_高效读写&ZK作用
23_Kafka高级_Ranger分区再分析
24_Kafka高级_事务
25_Kafka高级_API生产者流程
26_Kafka高级_API普通生产者
27_Kafka高级_回顾
28_Kafka案例_API带回调函数的生产者
29_Kafka案例_API生产者分区策略测试
30_Kafka案例_API自定义分区的生成者
31_Kafka案例_API同步发送生成者
32_Kafka案例_API简单消费者
33_Kafka案例_API消费者重置offset
34_Kafka案例_消费者保存offset读取问题
35_Kafka案例_API消费者手动提交offset
36_Kafka案例_API自定义拦截器(需求分析)
37_Kafka案例_API自定义拦截器(代码实现)
38_Kafka案例_API自定义拦截器(案例测试)
39_Kafka案例_监控Eagle的安装
40_Kafka案例_监控Eagle的使用
41_Kafka案例_Kafka之与Flume对接
42_Kafk之与Flume对接(数据分类)
43_Kafka之Kafka面试题
01_HBase入门_课程介绍
02_HBase入门_定义
03_HBase入门_逻辑结构
04_HBase入门_物理结构
05_HBase入门_数据模型
06_HBase入门_基础架构
07_HBase入门_集群安装
08_HBase入门_集群启动&关闭
09_HBase入门_命令行操作DDL(表)
10_HBase入门_命令行操作DDL(命名空间)
11_HBase入门_命令行操作DML(增&查)
12_HBase入门_命令行操作DML(改&删)
13_HBase入门_命令行操作DML(多版本)
14_HBase高级_详细架构
15_HBase高级_写数据流程
16_HBase高级_写数据流程(源码流程)
17_HBase高级_回顾
18_HBase高级_Flush流程
19_HBase高级_读数据流程
20_HBase高级_Compact流程
21_HBase高级_读写扩展
22_HBase高级_数据真正删除时间
23_HBase高级_Split流程
24_HBaseAPI_DDL判断表是否存在(旧API)
25_HBaseAPI_DDL判断表是否存在(新API)
26_HBaseAPI_DDL创建表
27_HBaseAPI_DDL删除表
28_HBaseAPI_DDL创建命名空间
29_HBaseAPI_DML插入数据
30_HBaseAPI_DML获取数据(get)
31_HBaseAPI_回顾
32_HBaseAPI_DML获取数据(Scan)
33_HBaseAPI_DML删除数据(命令行删除数据)
34_HBaseAPI_DML删除数据(分析)
35_HBaseAPI_DML删除数据(实操)
36_HBaseAPI_DML删除数据(扩展)
37_HBaseAPI_与MR交互(官方案例)
38_HBaseAPI_与MR交互MR1(Mapper&Reducer完成)
39_HBaseAPI_与MR交互MR1(Driver&测试完成)
40_HBaseAPI_与MR交互MR2(Mapper完成)
41_HBaseAPI_与MR交互MR2(Reducer&Driver&测试完成)
42_HBaseAPI_与Hive对比
43_HBaseAPI_与Hive对接(失败)
44_HBaseAPI_与Hive对接(成功)
45_HBaseAPI_与Hive对接(案例二)
46_HBaseAPI_回顾
47_HBase优化_高可用
48_HBase优化_预分区
49_HBase优化_RowKey设计原则
50_HBase优化_RowKey情景设计
51_HBase优化_内存&其他
52_HBase案例_谷粒微博(需求分析)
53_HBase案例_谷粒微博(项目架构)
54_HBase案例_谷粒微博(HBaseUtil类封装)
55_HBase案例_谷粒微博(定义常量)
56_HBase案例_谷粒微博(发布微博第一部分)
57_HBase案例_谷粒微博(发布微博第二部分)
58_HBase案例_谷粒微博(关注用户第一部分)
59_HBase案例_谷粒微博(关注用户第二部分分析)
60_HBase案例_谷粒微博(关注用户第二部分代码实现)
61_HBase案例_谷粒微博(取关用户)
62_HBase案例_谷粒微博(获取初始化页面数据)
63_HBase案例_谷粒微博(获取某个人所有微博)
64_HBase案例_谷粒微博(测试)
01_Azkaban_简介
02_Azkaban_特点
03_Azkaban_架构
04_Azkaban_Web_server_配置
05_Azkaban_Executor_server_配置
06_Azkaban_Web简介
07_Azkaban_基础使用
08_Azkaban_调度Shell脚本
09_Azkaban_通知邮件
10_Azkaban_多任务工作流程配置Part564
11_Azkaban_Java_任务配置Part565
12_Azkaban_HDFS_任务配置Part566
13_Azkaban_MR_任务配置Part567
14_Azkaban_Hive_任务配置Part568
15_Azkaban_传参Part569
01_电信客服_项目介绍
02_项目架构说明
03_数据生产_功能介绍
04_数据生产_搭建项目结构
05_数据生产_创建共通的基础类
06_数据生产_创建生产者对象
07_数据生产_获取通讯录数据
08_数据生产_随机生成主被叫电话号码
09_数据生产_构建通话记录
10_数据生产_将数据输出到日志文件中
11_数据生产_将项目打成jar包发布到Linux中
12_数据消费_Kafka控制台消费Flume采集的生产数据
13_数据消费_Kafka JavaAPI消费Flume采集的生产数据
14_数据消费_Hbase数据访问封装
15_数据消费_生成分区键
16_数据消费_生成分区号
17_数据消费_消费数据测试
18_数据消费_Hbase操作再封装
19_数据消费_根据分区号查询范围数据
20_数据消费_区分保存主叫被叫用户数据
21_数据消费_协处理的开发和测试
22_数据消费_协处理的补充说明
23_数据分析_Mysql表设计
24_数据分析_数据统计流程分析
25_数据分析_MapperReducer架构搭建
26_数据分析_Hbase数据输出到Mysql中
27_数据分析_在Outputformat对象中获取缓存数据
28_数据分析_使用Redis保存缓存数据
29_数据分析_自定义KV & 总结
30_数据展示_配置Web项目 & 服务器
31_数据展示_集成SSM框架
32_数据展示_SSM框架测试
33_数据展示_查询用户指定时间的通话记录
34_数据展示_使用Echarts展示统计结果
01_Oozie_课程介绍
02_Oozie_功能模块
03_Oozie_快速部署CDH版本Hadoop
04_Oozie_部署环境准备
05_Oozie_发布&启动
06_Oozie_调度Shell脚本案例
07_Oozie_逻辑调度多个任务案例
08_Oozie_调度MR任务
09_Oozie_调度定时任务
01_电商数仓_数仓项目介绍
02_数仓采集_用户行为采集课程介绍
03_数仓采集_数仓的概念
04_数仓采集_项目需求
05_数仓采集_项目技术选型
06_数仓采集_系统数据流程设计
07_数仓采集_框架版本选型
08_数仓采集_框架版本具体型号
09_数仓采集_服务器选型
10_数仓采集_集群资源规划设计
11_数仓采集_测试集群服务器规划
12_数仓采集_埋点数据基本格式
13_数仓采集_事件日志数据(上)
14_数仓采集_事件日志数据(下)
15_数仓采集_日志生成代码编写
16_数仓采集_Logback日志打印控制
17_数仓采集_服务器准备
18_数仓采集_Hadoop安装
19_数仓采集_项目经验之HDFS多目录配置
20_数仓采集_项目经验之支持LZO压缩配置
21_数仓采集_项目经验之基准测试
22_数仓采集_项目经验之HDFS参数调优
23_数仓采集_Zookeeper安装
24_数仓采集_项目经验之ZK集群启动停止脚本
25_数仓采集_生成测试日志
26_数仓采集_集群日志生成启动脚本
27_数仓采集_集群时间同步修改脚本
28_数仓采集_集群所有进程查看脚本
29_数仓采集_每日回顾
30_数仓采集_日志采集Flume安装
31_数仓采集_Flume组件及配置
32_数仓采集_日志采集Flume配置分析
33_数仓采集_ETL拦截器
34_数仓采集_分类型拦截器
35_数仓采集_日志采集Flume启动停止脚本
36_数仓采集_Kafka集群安装
37_数仓采集_Kafka集群启动停止脚本
38_数仓采集_Kafka Manager安装及脚本
39_数仓采集_项目经验之Kafka压力测试
40_数仓采集_项目经验之Kafka机器数量计算
41_数仓采集_消费Kafka数据Flume
42_数仓采集_项目经验之Flume内存优化
43_数仓采集_项目经验之Flume组件
44_数仓采集_采集通道启动停止脚本
45_数仓采集_调试经验
46_数仓采集_面试题(Linux、Shell、Hadoop)
47_数仓采集_面试题(Flume、Kafka)
48_用户行为数仓_每日回顾
49_用户行为数仓_用户行为数仓课程介绍
50_用户行为数仓_为什么要分层
51_用户行为数仓_数仓分层
52_用户行为数仓_数据集市与数据仓库概念
53_用户行为数仓_数仓命名规范
54_用户行为数仓_Hive&MySQL安装
55_用户行为数仓_Hive运行引擎Tez
56_用户行为数仓_项目经验之元数据备份
57_用户行为数仓_ODS层启动日志和事件日志表创建
58_用户行为数仓_ODS层加载数据脚本
59_用户行为数仓_DWD层启动日志建表及导入数据
60_用户行为数仓_DWD层启动表加载数据脚本
61_用户行为数仓_DWD层事件基础明细表创建
62_用户行为数仓_自定义UDF函数(解析公共字段)
63_用户行为数仓_自定义UDTF函数(解析事件日志基础明细表)
64_用户行为数仓_DWD层数据解析脚本
65_用户行为数仓_DWD层事件表加载数据脚本
66_用户行为数仓_今日回顾
67_用户行为数仓_业务术语
68_用户行为数仓_日期的系统函数
69_用户行为数仓_每日活跃设备明细
70_用户行为数仓_每周活跃设备明细
71_用户行为数仓_每月活跃设备明细
72_用户行为数仓_DWS层加载数据脚本
73_用户行为数仓_需求一:ADS层日活、周活、月活用户数
74_用户行为数仓_每日新增设备明细表
75_用户行为数仓_需求二:ADS层每日新增设备表
76_用户行为数仓_用户留存分析
77_用户行为数仓_1、2、3、n日留存用户明细
78_用户行为数仓_需求三:ADS层留存用户和留存比率
79_用户行为数仓_新数据准备
80_用户行为数仓_需求四:沉默用户
81_用户行为数仓_需求五:本周回流用户数
82_用户行为数仓_需求六:流失用户
83_用户行为数仓_需求七:最近连续3周活跃用户数
84_用户行为数仓_需求八:最近七天内连续三天活跃用户数
85_用户行为数仓_用户行为数仓业务总结
86_用户行为数仓_Hive企业面试题总结
87_业务数仓_业务数仓课程介绍
88_业务数仓_电商业务与数据结构简介
89_业务数仓_表的分类
90_业务数仓_同步策略
91_业务数仓_范式理论
92_业务数仓_雪花模型、星型模型和星座模型
93_业务数仓_配置Hadoop支持Snappy压缩
94_业务数仓_业务数据生成
95_业务数仓_Sqoop安装及参数
96_业务数仓_Sqoop导入数据
97_业务数仓_ODS层建表及数据导入
98_业务数仓_DWD层建表及导入数据
99_业务数仓_需求讲解
100_业务数仓_DWS层之用户行为宽表
101_业务数仓_需求九:GMV成交总额
102_业务数仓_需求十:ADS层之新增用户占日活跃用户比率
103_业务数仓_需求十一:ADS层之用户行为漏斗分析
104_业务数仓_用户购买商品明细表(宽表)
105_业务数仓_需求十二:ADS层品牌复购率
106_业务数仓_需求十三:求每个等级的用户对应的复购率前十的商品排行(学生分享)
107_业务数仓_数据可视化
108_业务数仓_Azkaban安装
109_业务数仓_GMV指标获取的全调度流程
110_业务数仓_拉链表理论
111_业务数仓_拉链表制作
112_业务数仓_业务数仓项目总结
113_业务数仓_即席数仓课程介绍
114_即席数仓_Presto简介
115_即席数仓_Presto安装及使用
116_即席数仓_Presto优化
117_即席数仓_Druid概念、特点、场景
118_即席数仓_Druid对比其他框架
119_即席数仓_Druid框架原理
120_即席数仓_Druid数据结构
121_即席数仓_Druid安装
122_面试题_总体架构
123_面试题_技术框架
124_面试题_用户行为、业务数据、即席查询
125_面试题_开发经验
126_CDH数仓_课程介绍
127_CDH数仓_CM简介及架构
128_CDH数仓_CM安装环境准备
129_CDH数仓_CM、Hadoop、Zookeeper安装
130_CDH数仓_采集Flume的安装
131_CDH数仓_Kafka安装
132_CDH数仓_测试Flume和Kafka安装
133_CDH数仓_消费Flume配置完成
134_CDH数仓_Hive、Oozie、Hue安装
135_CDH数仓_用户行为数仓ODS层导数据
136_CDH数仓_用户行为数仓完结
137_CDH数仓_业务数据生成
138_CDH数仓_业务数仓完结
139_CDH数仓_Oozie执行前准备
140_CDH数仓_Oozie任务编写及运行
141_CDH数仓_即席查询数仓搭建Impala
142_CDH数仓_Spark安装及总结