一分鐘內(nèi)部署jupyterlab + pyspark2 + hive,前提是spark2是可以在yarn上正常運行的。
成都創(chuàng)新互聯(lián)公司是一家集網(wǎng)站建設,建甌企業(yè)網(wǎng)站建設,建甌品牌網(wǎng)站建設,網(wǎng)站定制,建甌網(wǎng)站建設報價,網(wǎng)絡營銷,網(wǎng)絡優(yōu)化,建甌網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強企業(yè)競爭力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時我們時刻保持專業(yè)、時尚、前沿,時刻以成就客戶成長自我,堅持不斷學習、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實用型網(wǎng)站。
最近甲方打著滾的向乙方要求裝 jupyterlab,然后還要用spark2,所以,也是沒轍,誰讓人家是金主爸爸呢。擱我自己是絕不想在生產(chǎn)集群里裝jupyter的。Terminal潛在危險性還是有的,按說是不符合甲方的安全小組規(guī)定的,但是業(yè)務小組又哭鬧說沒有不行,就看上jupyter的代碼提示了,說什么也得要,我能怎么辦呢。其實你一年也寫不了1000行python,要代碼提示干嗎使呢,哎。
其實這樣的甲方還算好的,后面講一個更不好的甲方。
集群環(huán)境
CDH 5.14.0 自帶的 Hive 1.1.0
Spark 2.1.3 Apache版本
Jupyterlab in Anaconda3
按照spark2官方說法,spark2.x開始,僅支持hive 1.2.x以上版本,但實際使用中驗證也可以支持hive 1.1.x版本。但 2.3是絕無可能用 1.1.x版本的,而CDH系統(tǒng)又不能升級到6,所以這塊甲方也只能妥協(xié)了,用2.1.3版本,另:CDH5自帶版本是1.6的。
anaconda下載官方的安裝包就可以了,我直接裝在了/opt/anaconda3下面。
打開 spark/conf/spark-env.sh 輸入如下
export?PYSPARK_PYTHON=/opt/anaconda3/bin/python export?PYSPARK_DRIVER_PYTHON=/opt/anaconda3/bin/jupyter-lab export?PYSPARK_DRIVER_PYTHON_OPTS='??--ip=172.16.191.30?--port=8890'
使用conda或spark命令安裝sparkmagic及ipykernel 4.9.0
pip?install?sparkmagic pip/conda?install?ipykernel==4.9.0
因為ipykernel 5.x跟sparkmagic不兼容,會報一個future的exception,需要使用4.9.0才可以
https://github.com/jupyter-incubator/sparkmagic/issues/492
然后,就沒有然后了。
運行? pyspark2 --master yarn 就可以直接啟動基于yarn的jupyterlab了。
直接就啟動 jupyterlab 了
------------------甲方惡行錄----------------
前幾天去給一個公司講了一下 bigtop 如何打包編譯hadoop生態(tài),該公司是給某國企做外包項目的,這個甲方有多無聊加變態(tài)呢,一句話表述一下。
Hadoop生態(tài)系列要全部漢化并打包成發(fā)行版,包括log4j記的日志,內(nèi)容也得是中文,如果甲方再進一步,那就得是把java語言用易語言重寫一遍了。
新聞標題:Hadoop運維記錄系列(二十六)
文章出自:http://www.rwnh.cn/article12/igjegc.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供動態(tài)網(wǎng)站、建站公司、ChatGPT、企業(yè)建站、域名注冊、商城網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)