簡體周年慶
Hadoop實戰手冊

Hadoop實戰手冊

  • 定價:354
  • 優惠價:87308
  • 運送方式:
  • 臺灣與離島
  • 海外
  • 可配送點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
  • 可取貨點:台灣、蘭嶼、綠島、澎湖、金門、馬祖
載入中...
  • 分享
 

內容簡介

這是一本Hadoop實用手冊,主要針對實際問題給出相應的解決方案。《Hadoop實戰手冊》特色是以實踐結合理論分析,手把手教讀者如何操作,並且對每個操作都做詳細的解釋,對一些重要的知識點也做了必要的拓展。

全書共包括3個部分,第一部分為基礎篇,主要介紹Hadoop數據導入導出、HDFS的概述、Pig與Hive的使用、ETL和簡單的數據處理,還介紹了MapReduce的調試方式;第二部分為數據分析高級篇,主要介紹高級聚合、大數據分析等技巧;第三部分為系統管理篇,主要介紹Hadoop的部署的各種模式、添加新節點、退役節點、快速恢復、MapReduce調優等。
  
《Hadoop實戰手冊》適合各個層次的Hadoop技術人員閱讀。通過閱讀《Hadoop實戰手冊》,Hadoop初學者可以使用Hadoop來進行數據處理,Hadoop工程師或者數據挖掘工程師可以解決復雜的業務分析,Hadoop系統管理員可以更好地進行日常運維。《Hadoop實戰手冊》也可作為一本Hadoop技術手冊,針對要解決的相關問題,在工作中隨時查閱。
 

目錄

第1章 Hadoop分布式文件系統——導入和導出數據 1
1.1 介紹 1
1.2 使用Hadoop shell命令導入和導出數據到HDFS 2
1.3 使用distcp實現集群間數據復制 7
1.4 使用Sqoop從MySQL數據庫導入數據到HDFS 9
1.5 使用Sqoop從HDFS導出數據到MySQL 12
1.6 配置Sqoop以支持SQL Server 15
1.7 從HDFS導出數據到MongoDB 17
1.8 從MongoDB導入數據到HDFS 20
1.9 使用Pig從HDFS導出數據到MongoDB 23
1.10 在Greenplum外部表中使用HDFS 24
1.11 利用Flume加載數據到HDFS中 26
第2章 HDFS 28
2.1 介紹 28
2.2 讀寫HDFS數據 29
2.3 使用LZO壓縮數據 31
2.4 讀寫序列化文件數據 34
2.5 使用Avro序列化數據 37
2.6 使用Thrift序列化數據 41
2.7 使用Protocol Buffers序列化數據 44
2.8 設置HDFS備份因子 48
2.9 設置HDFS塊大小 49
第3章 抽取和轉換數據 51
3.1 介紹 51
3.2 使用MapReduce將Apache日志轉換為TSV格式 52
3.3 使用Apache Pig過濾網絡服務器日志中的爬蟲訪問量 54
3.4 使用Apache Pig根據時間戳對網絡服務器日志數據排序 57
3.5 使用Apache Pig對網絡服務器日志進行會話分析 59
3.6 通過Python擴展Apache Pig的功能 61
3.7 使用MapReduce及二次排序計算頁面訪問量 62
3.8 使用Hive和Python清洗、轉換地理事件數據 67
3.9 使用Python和Hadoop Streaming執行時間序列分析 71
3.10 在MapReduce中利用MultipleOutputs輸出多個文件 75
3.11 創建用戶自定義的Hadoop Writable及InputFormat讀取地理事件數據 78
第4章 使用Hive、Pig和MapReduce處理常見的任務 85
4.1 介紹 85
4.2 使用Hive將HDFS中的網絡日志數據映射為外部表 86
4.3 使用Hive動態地為網絡日志查詢結果創建Hive表 87
4.4 利用Hive字符串UDF拼接網絡日志數據的各個字段 89
4.5 使用Hive截取網絡日志的IP字段並確定其對應的國家 92
4.6 使用MapReduce對新聞檔案數據生成n-gram 94
4.7 通過MapReduce使用分布式緩存查找新聞檔案數據中包含關鍵詞的行 98
4.8 使用Pig加載一個表並執行包含GROUP BY的SELECT操作 102
第5章 高級連接操作 104
5.1 介紹 104
5.2 使用MapReduce對數據進行連接 104
5.3 使用Apache Pig對數據進行復制連接 108
5.4 使用Apache Pig對有序數據進行歸並連接 110
5.5 使用Apache Pig對傾斜數據進行傾斜連接 111
5.6 在Apache Hive中通過map端連接對地理事件進行分析 113
5.7 在Apache Hive通過優化的全外連接分析地理事件數據 115
5.8 使用外部鍵值存儲(Redis)連接數據 118
第6章 大數據分析 123
6.1 介紹 123
6.2 使用MapReduce和Combiner統計網絡日志數據集中的獨立IP數 124
6.3 運用Hive日期UDF對地理事件數據集中的時間日期進行轉換與排序 129
6.4 使用Hive創建基於地理事件數據的每月死亡報告 131
6.5 實現Hive用戶自定義UDF用於確認地理事件數據的來源可靠性 133
6.6 使用Hive的map/reduce操作以及Python標記最長的無暴力發生的時間區間 136
6.7 使用Pig計算Audioscrobbler數據集中藝術家之間的余弦相似度 141
6.8 使用Pig以及datafu剔除Audioscrobbler數據集中的離群值 145
第7章 高級大數據分析 147
7.1 介紹 147
7.2 使用Apache Giraph計算PageRank 147
7.3 使用Apache Giraph計算單源最短路徑 150
7.4 使用Apache Giraph執行分布式寬度優先搜索 158
7.5 使用Apache Mahout計算協同過濾 165
7.6 使用Apache Mahout進行聚類 168
7.7 使用Apache Mahout進行情感分類 171
第8章 調試 174
8.1 介紹 174
8.2 在MapReduce中使用Counters監測異常記錄 174
8.3 使用MRUnit開發和測試MapReduce 177
8.4 本地模式下開發和測試MapReduce 179
8.5 運行MapReduce作業跳過異常記錄 182
8.6 在流計算作業中使用Counters 184
8.7 更改任務狀態顯示調試信息 185
8.8 使用illustrate調試Pig作業 187
第9章 系統管理 189
9.1 介紹 189
9.2 在偽分布模式下啟動Hadoop 189
9.3 在分布式模式下啟動Hadoop 192
9.4 添加一個新節點 195
9.5 節點安全退役 197
9.6 NameNode故障恢復 198
9.7 使用Ganglia監控集群 199
9.8 MapReduce作業參數調優 201
第10章 使用Apache Accumulo進行持久化 204
10.1 介紹 204
10.2 在Accumulo中設計行鍵存儲地理事件 205
10.3 使用MapReduce批量導入地理事件數據到Accumulo 213
10.4 設置自定義字段約束Accumulo中的地理事件數據 220
10.5 使用正則過濾器限制查詢結果 225
10.6 使用SumCombiner計算同一個鍵的不同版本的死亡數總和 228
10.7 使用Accumulo實行單元級安全的掃描 232
10.8 使用MapReduce聚集Accumulo中的消息源 237
 

詳細資料

  • ISBN:9787115337955
  • 規格:242頁 / 普通級 / 1-1
  • 出版地:中國

最近瀏覽商品

 

相關活動

  • 【藝術設計】2024捷徑|資料夾文化電子書全書系,單書85折、雙書82折
 

購物說明

溫馨提醒您:若您訂單中有購買簡體館無庫存/預售書或庫存於海外廠商的書籍,建議與其他商品分開下單,以避免等待時間過長,謝謝。

大陸出版品書況:因裝幀品質及貨運條件未臻完善,書況與台灣出版品落差甚大,封面老舊、出現磨痕、凹痕等均屬常態,故簡體字館除封面破損、內頁脫落...等較嚴重的狀態外,其餘所有商品將正常出貨。 

 

請注意,部分書籍附贈之內容(如音頻mp3或影片dvd等)已無實體光碟提供,需以QR CODE 連結至當地網站註冊“並通過驗證程序”,方可下載使用。

調貨時間:若您購買海外庫存之商品,於您完成訂購後,商品原則上約45個工作天內抵台(若有將延遲另行告知)。為了縮短等待的時間,建議您將簡體書與其它商品分開訂購,以利一般商品快速出貨。 

若您具有法人身份為常態性且大量購書者,或有特殊作業需求,建議您可洽詢「企業採購」。 

退換貨說明 

會員所購買的商品均享有到貨十天的猶豫期(含例假日)。退回之商品必須於猶豫期內寄回。 

辦理退換貨時,商品必須是全新狀態與完整包裝(請注意保持商品本體、配件、贈品、保證書、原廠包裝及所有附隨文件或資料的完整性,切勿缺漏任何配件或損毀原廠外盒)。退回商品無法回復原狀者,恐將影響退貨權益或需負擔部分費用。 

訂購本商品前請務必詳閱商品退換貨原則

  • 簡體週年慶
  • 商業新品
  • 福寶