接觸Hadoop有兩年的時間了,期間遇到很多的問題,既有經典的NameNode和JobTracker內存溢出故障,也有HDFS存儲小文件問題,既有任務調度問題,也有MapReduce性能問題.遇到的這些問題有些是Hadoop自身的缺陷(短板),有些則是使用的不當。
在解決問題的過程中,有時需要翻源碼,有時會向同事、網友請教,遇到複雜問題則會通過mail list向全球各地Hadoop使用者,包括Hadoop Committer(Hadoop開發者)求助。在獲得很多人幫助后,自己將遇到問題和心得整理成文,希望本文可以對那些焦頭爛額的Hadoop新手們有所幫助,少走筆者的彎路。
PS. 本文基於 Cloudera CDH 3u4(同Apache Hadoop 1.0)編寫。相關推薦配置為官方推薦值或者筆者經驗數值,它不是絕對的,可能會因為不同的應用場景和硬體環境有所出入。
大多數管理員都是從Apache Hadoop開始學習。筆者最開始也使用Apache版本Hadoop進行開發和部署工作,但接觸到Cloudera CDH后,我發現它可以使管理員的工作更簡單,不僅可以獲得最新的特性和Bug修復,有時也會帶來令人驚喜的性能改善。
CDH為什麼更好?筆者羅列了以下幾點:
推薦指數:★★★
推薦理由:獲取最新特性和最新Bug修復;安裝維護方便,節省運維時間。
安裝和維護Hadoop集群涉及大量的管理工作,包括軟體安裝,設備管理(crontab、iptables等)、配置分發等。
對於小型集群軟體分發和節點管理可以使用PDSH這款軟體,它可以通過免密鑰的SSH將文件分發到目標伺服器,以及為一組目標設備發送命令並獲得反饋。如果是大型集群或者硬體配置差別很大的集群,推薦使用puppet這樣的工具幫助你維護配置文件,或者通過Cloudera Manager以GUI的方式的管理集群(注意:Clodera Manager不是開源軟體,免費版最多支持50個節點)。
推薦指數:★★★
推薦理由:提高運維效率
SecondaryNameNode(下稱SNN)的主要功能是工作是幫助NameNode(下稱NN)合併編輯日誌,然後將合併后的鏡像文件copy回NN,以減少NN重啟時合併編輯日誌所需的時間。SNN不是NN的熱備,但是通過以下步驟可以實現將SNN切換為NN的目的。首先,SNN節點上導入從NN Copy過來的鏡像文件,然後修改SNN機器名和IP與NN一致,最後重啟集群。
特別注意的是SNN的內存配置要與NN一致,因為合併編輯日誌的工作需要將metadata載入到內存完成。另外,不僅僅是SNN,任何保存NN鏡像的節點都可以通過上面步驟變為NN,只是SNN更適合罷了。
推薦指數:★★★
推薦理由:減少NN重啟導致集群服務中斷時間;NN節點故障后,SNN充當NN角色
當運行一個大型mapreduce 作業時,我們通常非常關心該作業對TaskTracker(下稱TT)CPU、內存、磁碟,以及整個網路的帶寬情況,這時候就需要Ganglia這個工具為我們生成相關圖表來診斷、分析問題。
Ganglia可以監控集群狀態,但當你的伺服器down機或者某個TT掛掉,它卻無法通知到你,這時我們可以使用Nagios這款告警軟體,它可以配置郵件告警和短息告警。通過編寫plugins,可以實現自己的監控功能。我們的集群目前做了如下監控:
推薦指數:★★★
推薦理由:Ganglia可以幫你記錄集群狀態,方便診斷問題;Nagios可以再遇到問題時第一時間通知你。
Hadoop集群安裝完畢后,第一件事就是修改bin/hadoop-evn.sh文件設置內存。主流節點內存配置為32GB,典型場景內存設置如下
NN: 15-25 GB
JT:2-4GB
DN:1-4 GB
TT:1-2 GB,Child VM 1-2 GB
集群的使用場景不同相關設置也有不同,如果集群有大量小文件,則要求NN內存至少要20GB,DN內存至少2GB。
推薦指數:★★★★★
推薦理由:幾個組件中NN對內存最為敏感,它有單點問題,直接影響到集群的可用性;JT同樣是單點,如果JT內存溢出則所有MapReduce Job都無法正常執行。
Hadoop原生MapReduce需要Java語言編寫,但是不會Java也沒問題,通過Hadoop streaming框架管理員可以使用Python,Shell,Perl等語言進行MapReduce開發,但更簡單的辦法是安裝和使用Hive或者Pig。
推薦指數:★★★
推薦理由:減少運維時間,快速響應各種ad-hot需求和故障診斷。
前面已經說過,NN是整個集群可能出現的單點故障。
Hadoop通過在hdfs.site.xml文件的dfs.name.dir屬性指定保持的metadata路徑,如果希望保持到多個路徑,可以使用逗號分割配置多個路徑。
<property> <name>dfs.name.dir</name> <value>/data/cache1/dfs/nn,/data/cache2/dfs/nn</value> </property>
Hadoop官方推薦配置為metadata配置多個path,其中包含一個NFS的路徑。但根據筆者一次集群嚴重故障經驗,即使這樣,還是導致了所有鏡像文件損壞,包括SNN上的鏡像文件,所以定期備份一個可用的副本還是很有必要的。
推薦指數:★★★★★
推薦理由:Cloudera3uX和Apache1.0的NN單點問題是大家最頭痛問題之一,多些準備,少許痛苦。
Hadoop的安全控制非常簡單,只包含簡單的許可權,即只根據客戶端用戶名,決定使用許可權。它的設計原則是:“避免好人做錯事,但不阻止壞人做壞事”。
如果你知道某台NN的IP和埠,則可以很輕鬆獲取HDFS目錄結構,並通過修改本機機器用戶名偽裝成HDFS文件所屬owner,對該文件進行刪除操作。
通過配置kerberos,可以實現身份驗證。但很多管理員使用更簡單有效的辦法——通過防火牆對訪問IP進行控制。
推薦指數:★★★★★
推薦理由:安全無小事,防範於未然。
我曾經犯下一個錯誤,在我加班非常累,大腦稍有混亂的時候,不小心刪除執行了一個命令“hadoop fs -rmr /xxx/xxx”,沒有刪除提示,幾TB的數據,一下子就沒有了。簡直讓我崩潰,後悔莫及。這時你多希望有個時間機器可以讓HDFS恢復到刪除前的狀態。
trash功能就是這個時間機器, 它默認是關閉的,開啟后,被你刪除的數據將會mv到操作用戶目錄的".Trash"文件夾,可以配置超過多長時間,系統自動刪除過期數據。這樣一來,當操作失誤的時候,可以把數據mv回來。開啟垃圾箱步驟如下:
vi core-site.xml ,添加下面配置,value單位為分鐘。
<property> <name>fs.trash.interval</name> <value>1440</value> </property>
筆者 在CDH3u4下不用重啟Namenode就可以生效。開啟垃圾箱后,如果希望文件直接被刪除,可以在使用刪除命令時添加“–skipTrash” 參數,如下:
hadoop fs –rm –skipTrash /xxxx
推薦指數:★★★★★
推薦理由:想要時間機器嗎?
Hadoop是一個非常優秀的開源項目,但它仍存有很多尚未解決的問題,諸如,NN,JT單點問題,JT掛死問題,Block在小文件下彙報效率低下等問題。此時可以通過如下渠道找到可以幫助你的人,筆者幾次集群嚴重故障都是通過Cloudera公司的google user group直接獲得幾位 committer的幫助。通常前一天提問,第二天就會有反饋。下面是兩個能夠幫助的你的社區,當然你也可以幫助其他人:
Apache hadoop的mail list :
http://hadoop.apache.org/mailing_lists.html
Cloudera CDH google group:
https://groups.google.com/a/cloudera.org/forum/#!forum/cdh-user
推薦指數:★★★★★
推薦理由:沒有人比軟體作者更熟悉Hadoop本身,去社區求助,幫你解決很多自己無法跨越的問題。
公司是一家Hadoop軟體服務公司,提供免費軟體CDH和Cloudera Manager Free Edition,同時提供Hadoop相關資訊、培訓、技術支持等服務。Hadoop創始人Dong Cutting在該公司任架構師,同時該公司擁有多名Apache Committer。
張月, Java程序員,7年工作經驗,2007年加入藍汛chinacache至今,目前從事Hadoop相關工作,關注敏捷和海量數據領域,關注軟體開發過程。 他擁有Cloudera Certified Administrator for Apache Hadoop (CCAH)和Cloudera Certified Developer for Apache Hadoop (CCDH)證書,博客:heipark.iteye.com
感謝鄭柯對本文的審校。
[火星人 ] Hadoop管理員的十個最佳實踐已經有1065次圍觀