1.部署準(zhǔn)備兩個(gè)機(jī)器test1為Master,test2為Slave。
創(chuàng)新互聯(lián)公司服務(wù)項(xiàng)目包括阜陽(yáng)網(wǎng)站建設(shè)、阜陽(yáng)網(wǎng)站制作、阜陽(yáng)網(wǎng)頁(yè)制作以及阜陽(yáng)網(wǎng)絡(luò)營(yíng)銷(xiāo)策劃等。多年來(lái),我們專(zhuān)注于互聯(lián)網(wǎng)行業(yè),利用自身積累的技術(shù)優(yōu)勢(shì)、行業(yè)經(jīng)驗(yàn)、深度合作伙伴關(guān)系等,向廣大中小型企業(yè)、政府機(jī)構(gòu)等提供互聯(lián)網(wǎng)行業(yè)的解決方案,阜陽(yáng)網(wǎng)站推廣取得了明顯的社會(huì)效益與經(jīng)濟(jì)效益。目前,我們服務(wù)的客戶(hù)以成都為中心已經(jīng)輻射到阜陽(yáng)省份的部分城市,未來(lái)相信會(huì)繼續(xù)擴(kuò)大服務(wù)區(qū)域并繼續(xù)獲得客戶(hù)的支持與信任!在兩個(gè)機(jī)器上分別vim /etc/hosts,加入如下內(nèi)容:
192.168.1.100 test1 192.168.1.200 test2
2.增加hadoop用戶(hù)
groupadd hadoop useradd hadoop -g hadoop passwd hadoop
3.設(shè)置Master無(wú)密碼登錄slave
在test1下生成公鑰/私鑰對(duì)并復(fù)制到test2上。
su hadoop ssh-keygen -t rsa -P '' scp ~/.ssh/id_rsa.pub hadoop@test2:~/.ssh/id_rsa.pub
test2把從test1復(fù)制的id_rsa.pub添加到.ssh/authorzied_keys文件里
cat id_rsa.pub >> authorized_keys chmod 600 .ssh/authorized_keys
4.修改句柄數(shù):
ulimit -n 65535 vim /etc/security/limits.conf增加如下內(nèi)容: \* hard nofile 65535 \* soft nofile 65535
將編譯好的hadoop2.4.0解壓后修改etc/hadoop目錄里的配置文件。
1.修改hadoop-env.sh
export JAVA_HOME=/opt/jdk
2.修改core-site.xml
<property> <name>fs.default.name</name> <value>hdfs://HDP125:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/home/${user.name}/tmp</value> </property> <property> <name>fs.trash.interval</name> <value>1440</value> </property>
說(shuō)明:
fs.defaultDFS:設(shè)置NameNode的IP和端口
hadoop.tmp.dir:設(shè)置Hadoop臨時(shí)目錄,(默認(rèn)/tmp,機(jī)器重啟會(huì)丟失數(shù)據(jù)!)
fs.trash.interval:開(kāi)啟Hadoop回收站
3.修改hdfs-site.xml
<property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/home/${user.name}/dfs_name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/home/${user.name}/dfs_data</value> </property> <property> <name>dfs.support.append</name> <value>true</value> </property> <property> <name>dfs.datanode.max.xcievers</name> <value>4096</value> </property>
說(shuō)明:
dfs.replication:文件復(fù)本數(shù)
dfs.namenode.name.dir:設(shè)置NameNode存儲(chǔ)元數(shù)據(jù)(fsp_w_picpath)的本地文件系統(tǒng)位置
dfs.datanode.data.dir:設(shè)置DataNode存儲(chǔ)數(shù)據(jù)的本地文件系統(tǒng)位置
dfs.support.append:設(shè)置HDFS是否支持在文件末尾追加數(shù)據(jù)
dfs.datanode.max.xcievers:設(shè)置datanode可以創(chuàng)建的大xcievers數(shù)
4.修改yarn-site.xml
<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>master</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.timeline-service.hostname</name> <value>master</value> </property>
5.修改mapred-site.xml
<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>
6.修改slave
test1 test2
7.把配置好的Hadoop程序復(fù)制到其它節(jié)點(diǎn)
scp -r /opt/hadoop hadoop@test2:/opt/ chown -R hadoop:hadoop /opt/hadoop
1.第一次使用一個(gè)分布式文件系統(tǒng),需要對(duì)其進(jìn)行格式化:
./bin/hadoop namenode –format
2.啟動(dòng)Hadoop:
sbin/start-all.sh
3.關(guān)閉Hadoop:
sbin/start-all.sh
4.Hadoop自帶的WEB管理界面
http://test1:50070
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無(wú)理由+7*72小時(shí)售后在線(xiàn),公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性?xún)r(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專(zhuān)為企業(yè)上云打造定制,能夠滿(mǎn)足用戶(hù)豐富、多元化的應(yīng)用場(chǎng)景需求。
網(wǎng)站題目:Hadoop2.4安裝與配置-創(chuàng)新互聯(lián)
文章地址:http://www.rwnh.cn/article28/ceihjp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站營(yíng)銷(xiāo)、服務(wù)器托管、商城網(wǎng)站、響應(yīng)式網(wǎng)站、做網(wǎng)站、網(wǎng)站設(shè)計(jì)公司
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話(huà):028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容