安裝JDK 1.7以上 Hadoop 2.7.0不支持JDK1.6,Spark 1.5.0開始不支持JDK 1.6
創(chuàng)新互聯(lián)專業(yè)提供成都服務(wù)器托管服務(wù),為用戶提供五星數(shù)據(jù)中心、電信、雙線接入解決方案,用戶可自行在線購買成都服務(wù)器托管服務(wù),并享受7*24小時金牌售后服務(wù)。安裝Scala 2.10.4
安裝 Hadoop 2.x 至少HDFS
spark-env.sh
export JAVA_HOME= export SCALA_HOME= export HADOOP_CONF_DIR=/opt/modules/hadoop-2.2.0/etc/hadoop //運行在yarn上必須要指定 export SPARK_MASTER_IP=server1 export SPARK_MASTER_PORT=8888 export SPARK_MASTER_WEBUI_PORT=8080 export SPARK_WORKER_CORES= export SPARK_WORKER_INSTANCES=1 export SPARK_WORKER_MEMORY=26g export SPARK_WORKER_PORT=7078 export SPARK_WORKER_WEBUI_PORT=8081 export SPARK_JAVA_OPTS="-verbose:gc -XX:-PrintGCDetails -XX:PrintGCTimeStamps"
slaves指定worker節(jié)點
xx.xx.xx.2 xx.xx.xx.3 xx.xx.xx.4 xx.xx.xx.5
運行spark-submit時默認(rèn)的屬性從spark-defaults.conf文件讀取
spark-defaults.conf
spark.master=spark://hadoop-spark.dargon.org:7077
啟動集群
start-master.sh start-salves.sh
spark-shell命令其實也是執(zhí)行spark-submit命令
spark-submit --help
deploy-mode針對driver program(SparkContext)的client(本地)、cluster(集群)
默認(rèn)是client的,SparkContext運行在本地,如果改成cluster則SparkContext運行在集群上
hadoop on yarn的部署模式就是cluster,SparkContext運行在Application Master
spark-shell quick-start鏈接
http://spark.apache.org/docs/latest/quick-start.html
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
新聞名稱:spark1.Xstandalone和onyarn安裝配置-創(chuàng)新互聯(lián)
分享路徑:http://www.rwnh.cn/article22/dpejjc.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站策劃、網(wǎng)站建設(shè)、品牌網(wǎng)站制作、商城網(wǎng)站、動態(tài)網(wǎng)站、網(wǎng)站導(dǎo)航
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容