這篇文章給大家分享的是有關(guān)Hadoop怎樣配置的內(nèi)容。小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過(guò)來(lái)看看吧。
10年的桓仁網(wǎng)站建設(shè)經(jīng)驗(yàn),針對(duì)設(shè)計(jì)、前端、開(kāi)發(fā)、售后、文案、推廣等六對(duì)一服務(wù),響應(yīng)快,48小時(shí)及時(shí)工作處理。成都營(yíng)銷網(wǎng)站建設(shè)的優(yōu)勢(shì)是能夠根據(jù)用戶設(shè)備顯示端的尺寸不同,自動(dòng)調(diào)整桓仁建站的顯示方式,使網(wǎng)站能夠適用不同顯示終端,在瀏覽器中調(diào)整網(wǎng)站的寬度,無(wú)論在任何一種瀏覽器上瀏覽網(wǎng)站,都能展現(xiàn)優(yōu)雅布局與設(shè)計(jì),從而大程度地提升瀏覽體驗(yàn)。創(chuàng)新互聯(lián)從事“桓仁網(wǎng)站設(shè)計(jì)”,“桓仁網(wǎng)站推廣”以來(lái),每個(gè)客戶項(xiàng)目都認(rèn)真落實(shí)執(zhí)行。
1. 設(shè)置SSH免密碼登錄
注意兩點(diǎn):
自己跟自己的ssh免登也要設(shè)置;
需要在/etc/hosts中把localhost設(shè)置為自己的IP.
如果設(shè)置之后依然需要輸入密碼,可能是.ssh的權(quán)限問(wèn)題,嘗試以下命令
chown root /root/.ssh chown root /root/.ssh/* chmod 700 /root/.ssh chmod 600 /root/.ssh/*
2. 修改etc/hadoop目錄和sbin目錄下的配置文件
core-site.xml
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://backup01:8020</value> <description>For namenode listening</description> </property> <property> <name>io.file.buffer.size</name> <value>4096</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> </property> </configuration>
hdfs-site.xml
<configuration> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/data</value> </property> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> </configuration>
yarn-site.xml
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.resourcemanager.address</name> <value>backup01:8032</value> </property> <property> <name>yarn.resourcemanager.scheduler.address</name> <value>backup01:8030</value> </property> <property> <name>yarn.resourcemanager.resource-tracker.address</name> <value>backup01:8031</value> </property> <property> <name>yarn.resourcemanager.admin.address</name> <value>backup01:8033</value> </property> </configuration>
mapred-site.xml
<configuration> <property> <name>mapred.job.tracker</name> <value>backup01:9001</value> </property> </configuration>
hadoop-env.sh
在文件開(kāi)頭增加Java路徑
export JAVA_HOME=/usr/local/jdk export HADOOP_PID_DIR=/usr/local/hadoop/tmp
yarn-env.sh
在文件開(kāi)頭增加Java路徑
export JAVA_HOME=/usr/local/jdk
master (注意3.x.x不需要配置master這個(gè)文件)
將backup01作為secondary namenode
backup01
slaves (注意3.x.x對(duì)應(yīng)為workers文件)
backup02
sbin/yarn-daemon.sh
在開(kāi)頭增加一下代碼
export YARN_PID_DIR=/usr/local/hadoop/tmp
3.x.x版本Hadoop所需的額外操作
需要在sbin路徑下修改start-dfs.sh、stop-dfs.sh、start-yarn.sh和stop-yarn.sh 4個(gè)文件,否則運(yùn)行hadoop時(shí)會(huì)拋出以下錯(cuò)誤:
Attempting to operate on hdfs namenode as root ERROR: but there is no HDFS_NAMENODE_USER defined. Aborting operation.
將start-dfs.sh,stop-dfs.sh兩個(gè)文件頂部下一行添加以下參數(shù)
#!/usr/bin/env bash HDFS_DATANODE_USER=root HADOOP_SECURE_DN_USER=root HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root
start-yarn.sh、stop-yarn.sh頂部也需添加以下參數(shù):
#!/usr/bin/env bash YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=root YARN_NODEMANAGER_USER=root
3. 輸入以下命令以格式化HDFS
hdfs namenode -format
4. 啟動(dòng)Hadoop
$./bin/start-dfs.sh $./bin/start-yarn.sh
5. 輸入以下命令驗(yàn)證Hadoop是否啟動(dòng)成功
hadoop fs -mkdir /in hadoop fs -ls /
感謝各位的閱讀!關(guān)于“Hadoop怎樣配置”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!
當(dāng)前題目:Hadoop怎樣配置
地址分享:http://www.rwnh.cn/article20/ippcco.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供電子商務(wù)、品牌網(wǎng)站制作、搜索引擎優(yōu)化、微信公眾號(hào)、網(wǎng)站維護(hù)、定制開(kāi)發(fā)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)