高清无码视频直接看,日本无码色情三级播放,大桥未久亚洲无av码在线,免费人成视频在线播放,国产亚洲精品久久久久久大师

課程名稱:Hadoop 核心組件(jian)基(ji)礎培訓

4401 人關(guan)注
(78637/99817)
課程大綱:

Hadoop 核(he)心(xin)組件基礎培(pei)訓

 

 

1 Hadoop 基(ji)礎概念

2 Hadoop 偽(wei)分(fen)布式模式部署

3 HDFS 的初始化方法(fa)

4 HDFS 基本操作

5 MapReduce 應用的(de)編(bian)寫和(he)編(bian)譯(yi)方法

6 YARN 配置(zhi)文件的作用

7 HBase 的數據模型和基本操作

8 Sqoop 的數據傳輸方法(fa)

9 向 Solr 添加數據的方法

10 Hive 架構及部署

11 Flume 的架構和數(shu)據(ju)流模型

12 Flume Agent 配(pei)置方(fang)法

13 Kafka 的架構及(ji)部署

14 Flume 與 Kafka 的(de)連接方法(fa)

15 Pig 使用方法(fa)

16 HDFS 的基本使(shi)用

17 Hadoop 各(ge)配置項的作用

18 HDFS 架構

19 MapReduce 核心思想及架構

20 YARN 核(he)心思想及架構

YARN 應用(yong)開發方式

Sqoop 的體(ti)系結構

Solr 特(te)性及部(bu)署

Solr 檢索數據的方式

Hive HQL 語言

多數據(ju)源下配置和啟動 Agent 的方法

Hive 導入外部(bu)數據的方法

Kafka Connect 的用(yong)法

Pig 架構及(ji)部署(shu)

1
Hadoop 簡介與安(an)裝部署

1.Hadoop的體(ti)系結構

2.Hadoop的(de)主要模塊(kuai)

3.Hadoop偽分(fen)布(bu)式模式部署

4.HDFS的基本使(shi)用

5.WordCount測試用(yong)例

1
Hadoop 系統(tong)部署(shu)

1.Hadoop各個配置項的(de)作用

2.啟動Hadoop守護進程的(de)方(fang)法

3.HDFS的初始化方法

2
HDFS 架構與操(cao)作

1.HDFS架(jia)構

2.HDFS基本操作

3.Web管理界面(mian)

4.WebHDFSAPI的使用

3
MapReduce 原理與實(shi)踐

1.MapReduce核心思想

2.MapReduce編(bian)程框(kuang)架(jia)的(de)結(jie)構

3.MapReduce應用的編(bian)寫和編(bian)譯方(fang)法

2
使用 MapReduce 進行(xing)日志分析

1.Hadoop服務的(de)啟動

2.MapReduce應用的編(bian)寫

3.生(sheng)成Jar包的方法

4.HDFS的基(ji)本操作

4
YARN 架構(gou)

1.YARN核心思(si)想及架(jia)構

2.YARN配置文件的作(zuo)用(yong)

3.YARN應用開(kai)發方式

4.YARNWebUI的使用

3
用(yong) Hadoop 計算圓周(zhou)率(lv)

1.HadoopMapReduce任務執行

2.Hadoop示例程序的使(shi)用(yong)

3.Bash輸出重定(ding)向

5
HBase 基礎

1.關(guan)(guan)系(xi)型數(shu)據庫(ku)與非關(guan)(guan)系(xi)型數(shu)據庫(ku)的聯系(xi)和區(qu)別

2.HBase的安裝部署方法

3.HBase的數(shu)據模型和基本操(cao)作

4
HBase 數據(ju)導(dao)入

1.HBase創建(jian)表(biao)的方(fang)法

2.HBase導(dao)入外(wai)部數據的(de)方(fang)法

3.HDFS的(de)基本操作

6
Sqoop 數據(ju)遷移(yi)

1.待遷(qian)移數據源(yuan)的配(pei)置

2.Sqoop的體系結構

3.Sqoop的(de)數(shu)據傳(chuan)輸方法(fa)

5
 HBase 實現(xian) Web 日志(zhi)場景(jing)數據(ju)處理

1.HBase過(guo)濾(lv)器的用法

2.HBase導入數據的方式

3.HBase表操作

4.Bash輸出重定向

7
Solr 基礎實戰

1.Solr的特性

2.Solr的部署方法

3.向Solr添加(jia)數據的方法

4.Solr檢(jian)索數據的方式

8
Hive 基礎實戰

1.Hive的架構

2.Hive的基本數據單位

3.部(bu)署Hive的方(fang)法

4.HiveHQL語言

6
導入數據(ju)到 Hive

1.在Hive中創(chuang)建(jian)表的方法

2.導入(ru)CSV數據到Hive表的方(fang)法

3.在(zai)Hive中執行SQL查詢的方法

4.Bash輸(shu)出(chu)重定向

9
Flume 基礎實(shi)戰

1.Flume的(de)架構(gou)和數據(ju)流模(mo)型(xing)

2.Flume的安裝(zhuang)部(bu)署方(fang)法

3.多數(shu)據(ju)源下配置(zhi)和啟動Agent的(de)方法(fa)

10
Flume、HDFS和(he)Hive實現日志(zhi)收集和(he)分(fen)析

1.FlumeAgent配(pei)置方法

2.Hive啟動方法(fa)

3.Hive中創建表的方式

4.Hive導入外部數據(ju)的方(fang)法(fa)

5.在Hive命令行(xing)運行(xing)HQL查詢

7
用(yong)Flume和(he)MapReduce進行日志(zhi)分析

1.FlumeAgent配置

2.MapReduce框架的編寫

3.MapReduce任務的執行

11
Kafka 基礎(chu)實(shi)戰

1.Kafka的應用(yong)場(chang)景

2.Kafka的架構

3.Kafka與Flume的區別

4.Kafka的安裝(zhuang)部(bu)署方法

5.Kafka的故障恢復能力

6.KafkaConnect的用法

8
按需部(bu)署(shu) Kafka

1.KafkaZooKeeper的配置

2.KafkaServer的(de)用(yong)法

3.Kafka創(chuang)建(jian)主題(ti)的方法

4.KafkaConnect的配置和使用

12
使用 Flume 和(he) Kafka 實現實時日志(zhi)收集

1.模擬日志的生(sheng)成(cheng)方法

2.FlumeAgent的配置方法

3.Kafka的配置方法

4.Flume與Kafka的連接方法(fa)

13
Pig 基礎實(shi)戰(zhan)

1.Pig的特性

2.Pig的架構

3.Pig的安裝部(bu)署方法

4.Pig的啟動模(mo)式

5.PigLatin


登錄 后發表評論
新評論
全(quan)部 第1節(jie) 第2節 第3節 第4節 第5節 第(di)6節 第7節 第(di)8節 第9節 第10節(jie) 第11節 第12節 第13節 第14節 第15節(jie) 第(di)16節(jie) 第17節
我的報告 / 所有報告(gao)