
Hadoop 核(he)心(xin)組件基礎培(pei)訓
1 Hadoop 基(ji)礎概念
2 Hadoop 偽(wei)分(fen)布式模式部署
3 HDFS 的初始化方法(fa)
4 HDFS 基本操作
5 MapReduce 應用的(de)編(bian)寫和(he)編(bian)譯(yi)方法
6 YARN 配置(zhi)文件的作用
7 HBase 的數據模型和基本操作
8 Sqoop 的數據傳輸方法(fa)
9 向 Solr 添加數據的方法
10 Hive 架構及部署
11 Flume 的架構和數(shu)據(ju)流模型
12 Flume Agent 配(pei)置方(fang)法
13 Kafka 的架構及(ji)部署
14 Flume 與 Kafka 的(de)連接方法(fa)
15 Pig 使用方法(fa)
16 HDFS 的基本使(shi)用
17 Hadoop 各(ge)配置項的作用
18 HDFS 架構
19 MapReduce 核心思想及架構
20 YARN 核(he)心思想及架構
YARN 應用(yong)開發方式
Sqoop 的體(ti)系結構
Solr 特(te)性及部(bu)署
Solr 檢索數據的方式
Hive HQL 語言
多數據(ju)源下配置和啟動 Agent 的方法
Hive 導入外部(bu)數據的方法
Kafka Connect 的用(yong)法
Pig 架構及(ji)部署(shu)
1
Hadoop 簡介與安(an)裝部署
1.Hadoop的體(ti)系結構
2.Hadoop的(de)主要模塊(kuai)
3.Hadoop偽分(fen)布(bu)式模式部署
4.HDFS的基本使(shi)用
5.WordCount測試用(yong)例
1
Hadoop 系統(tong)部署(shu)
1.Hadoop各個配置項的(de)作用
2.啟動Hadoop守護進程的(de)方(fang)法
3.HDFS的初始化方法
2
HDFS 架構與操(cao)作
1.HDFS架(jia)構
2.HDFS基本操作
3.Web管理界面(mian)
4.WebHDFSAPI的使用
3
MapReduce 原理與實(shi)踐
1.MapReduce核心思想
2.MapReduce編(bian)程框(kuang)架(jia)的(de)結(jie)構
3.MapReduce應用的編(bian)寫和編(bian)譯方(fang)法
2
使用 MapReduce 進行(xing)日志分析
1.Hadoop服務的(de)啟動
2.MapReduce應用的編(bian)寫
3.生(sheng)成Jar包的方法
4.HDFS的基(ji)本操作
4
YARN 架構(gou)
1.YARN核心思(si)想及架(jia)構
2.YARN配置文件的作(zuo)用(yong)
3.YARN應用開(kai)發方式
4.YARNWebUI的使用
3
用(yong) Hadoop 計算圓周(zhou)率(lv)
1.HadoopMapReduce任務執行
2.Hadoop示例程序的使(shi)用(yong)
3.Bash輸出重定(ding)向
5
HBase 基礎
1.關(guan)(guan)系(xi)型數(shu)據庫(ku)與非關(guan)(guan)系(xi)型數(shu)據庫(ku)的聯系(xi)和區(qu)別
2.HBase的安裝部署方法
3.HBase的數(shu)據模型和基本操(cao)作
4
HBase 數據(ju)導(dao)入
1.HBase創建(jian)表(biao)的方(fang)法
2.HBase導(dao)入外(wai)部數據的(de)方(fang)法
3.HDFS的(de)基本操作
6
Sqoop 數據(ju)遷移(yi)
1.待遷(qian)移數據源(yuan)的配(pei)置
2.Sqoop的體系結構
3.Sqoop的(de)數(shu)據傳(chuan)輸方法(fa)
5
HBase 實現(xian) Web 日志(zhi)場景(jing)數據(ju)處理
1.HBase過(guo)濾(lv)器的用法
2.HBase導入數據的方式
3.HBase表操作
4.Bash輸出重定向
7
Solr 基礎實戰
1.Solr的特性
2.Solr的部署方法
3.向Solr添加(jia)數據的方法
4.Solr檢(jian)索數據的方式
8
Hive 基礎實戰
1.Hive的架構
2.Hive的基本數據單位
3.部(bu)署Hive的方(fang)法
4.HiveHQL語言
6
導入數據(ju)到 Hive
1.在Hive中創(chuang)建(jian)表的方法
2.導入(ru)CSV數據到Hive表的方(fang)法
3.在(zai)Hive中執行SQL查詢的方法
4.Bash輸(shu)出(chu)重定向
9
Flume 基礎實(shi)戰
1.Flume的(de)架構(gou)和數據(ju)流模(mo)型(xing)
2.Flume的安裝(zhuang)部(bu)署方(fang)法
3.多數(shu)據(ju)源下配置(zhi)和啟動Agent的(de)方法(fa)
10
Flume、HDFS和(he)Hive實現日志(zhi)收集和(he)分(fen)析
1.FlumeAgent配(pei)置方法
2.Hive啟動方法(fa)
3.Hive中創建表的方式
4.Hive導入外部數據(ju)的方(fang)法(fa)
5.在Hive命令行(xing)運行(xing)HQL查詢
7
用(yong)Flume和(he)MapReduce進行日志(zhi)分析
1.FlumeAgent配置
2.MapReduce框架的編寫
3.MapReduce任務的執行
11
Kafka 基礎(chu)實(shi)戰
1.Kafka的應用(yong)場(chang)景
2.Kafka的架構
3.Kafka與Flume的區別
4.Kafka的安裝(zhuang)部(bu)署方法
5.Kafka的故障恢復能力
6.KafkaConnect的用法
8
按需部(bu)署(shu) Kafka
1.KafkaZooKeeper的配置
2.KafkaServer的(de)用(yong)法
3.Kafka創(chuang)建(jian)主題(ti)的方法
4.KafkaConnect的配置和使用
12
使用 Flume 和(he) Kafka 實現實時日志(zhi)收集
1.模擬日志的生(sheng)成(cheng)方法
2.FlumeAgent的配置方法
3.Kafka的配置方法
4.Flume與Kafka的連接方法(fa)
13
Pig 基礎實(shi)戰(zhan)
1.Pig的特性
2.Pig的架構
3.Pig的安裝部(bu)署方法
4.Pig的啟動模(mo)式
5.PigLatin
