本篇內(nèi)容介紹了“怎么用docker快速搭建Spark集群”的有關(guān)知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細閱讀,能夠?qū)W有所成!
創(chuàng)新互聯(lián)是一家專業(yè)提供泰順企業(yè)網(wǎng)站建設(shè),專注與成都網(wǎng)站建設(shè)、做網(wǎng)站、H5建站、小程序制作等業(yè)務(wù)。10年已為泰順眾多企業(yè)、政府機構(gòu)等服務(wù)。創(chuàng)新互聯(lián)專業(yè)網(wǎng)站制作公司優(yōu)惠進行中。前言
Spark 是 Berkeley 開發(fā)的分布式計算的框架,相對于 Hadoop 來說,Spark 可以緩存中間結(jié)果到內(nèi)存而提高某些需要迭代的計算場景的效率,目前收到廣泛關(guān)注。下面來一起看看使用docker快速搭建Spark集群的方法教程。
適用人群
正在使用spark的開發(fā)者
正在學(xué)習(xí)docker或者spark的開發(fā)者
準(zhǔn)備工作
安裝docker
(可選)下載java和spark with hadoop
Spark集群
Spark運行時架構(gòu)圖
如上圖: Spark集群由以下兩個部分組成
集群管理器(Mesos, Yarn或者standalone Mode)
工作節(jié)點(worker)
如何docker化(本例使用Standalone模式)
1、將spark集群拆分
base(基礎(chǔ)鏡像)
master(主節(jié)點鏡像)
worker(工作鏡像)
2、編寫base Dockerfile
注: 為方便切換版本基礎(chǔ)鏡像選擇的是centos, 所以要下載java和spark, 方便調(diào)試, 可以下載好安裝文件后本地搭建一個靜態(tài)文件服務(wù)器, 使用Node.js 的http-server可以快速搞定
命令如下
npm install http-server -g http-server -p 54321 ~/Downloads
正式開始寫Dockerfile
FROM centos:7 MAINTAINER RavenZZ <raven.zhu@outlook.com> # 安裝系統(tǒng)工具 RUN yum update -y RUN yum upgrade -y RUN yum install -y byobu curl htop man unzip nano wget RUN yum clean all # 安裝 Java ENV JDK_VERSION 8u11 ENV JDK_BUILD_VERSION b12 # 如果網(wǎng)速快,可以直接從源站下載 #RUN curl -LO "http://download.oracle.com/otn-pub/java/jdk/$JDK_VERSION-$JDK_BUILD_VERSION/jdk-$JDK_VERSION-linux-x64.rpm" -H 'Cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm; RUN curl -LO "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm; ENV JAVA_HOME /usr/java/default RUN yum remove curl; yum clean all WORKDIR spark RUN \ curl -LO 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && \ tar zxf spark-2.1.0-bin-hadoop2.7.tgz RUN rm -rf spark-2.1.0-bin-hadoop2.7.tgz RUN mv spark-2.1.0-bin-hadoop2.7/* ./ ENV SPARK_HOME /spark ENV PATH /spark/bin:$PATH ENV PATH /spark/sbin:$PATH
3、編寫master Dockerfile
FROM ravenzz/spark-hadoop MAINTAINER RavenZZ <raven.zhu@outlook.com> COPY master.sh / ENV SPARK_MASTER_PORT 7077 ENV SPARK_MASTER_WEBUI_PORT 8080 ENV SPARK_MASTER_LOG /spark/logs EXPOSE 8080 7077 6066 CMD ["/bin/bash","/master.sh"]
4、編寫worker Dockerfile
FROM ravenzz/spark-hadoop MAINTAINER RavenZZ <raven.zhu@outlook.com> COPY worker.sh / ENV SPARK_WORKER_WEBUI_PORT 8081 ENV SPARK_WORKER_LOG /spark/logs ENV SPARK_MASTER "spark://spark-master:32769" EXPOSE 8081 CMD ["/bin/bash","/worker.sh"]
5、docker-compose
version: '3' services: spark-master: build: context: ./master dockerfile: Dockerfile ports: - "50001:6066" - "50002:7077" # SPARK_MASTER_PORT - "50003:8080" # SPARK_MASTER_WEBUI_PORT expose: - 7077 spark-worker1: build: context: ./worker dockerfile: Dockerfile ports: - "50004:8081" links: - spark-master environment: - SPARK_MASTER=spark://spark-master:7077 spark-worker2: build: context: ./worker dockerfile: Dockerfile ports: - "50005:8081" links: - spark-master environment: - SPARK_MASTER=spark://spark-master:7077
6、測試集群
docker-compose up
訪問http://localhost:50003/ 結(jié)果如圖
“怎么用docker快速搭建Spark集群”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識可以關(guān)注創(chuàng)新互聯(lián)成都網(wǎng)站設(shè)計公司網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實用文章!
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機、免備案服務(wù)器”等云主機租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。
網(wǎng)站欄目:怎么用docker快速搭建Spark集群-創(chuàng)新互聯(lián)
鏈接分享:http://www.rwnh.cn/article38/ccipsp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供服務(wù)器托管、App開發(fā)、云服務(wù)器、網(wǎng)站導(dǎo)航、微信小程序、網(wǎng)站設(shè)計公司
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容