内射老阿姨1区2区3区4区_久久精品人人做人人爽电影蜜月_久久国产精品亚洲77777_99精品又大又爽又粗少妇毛片

ApacheSpark2.0在作業(yè)完成時(shí)卻花費(fèi)很長時(shí)間結(jié)束怎

這篇文章給大家分享的是有關(guān)Apache Spark 2.0在作業(yè)完成時(shí)卻花費(fèi)很長時(shí)間結(jié)束怎么辦的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來看看吧。

這篇文章給大家分享的是有關(guān)Apache Spark 2.0在作業(yè)完成時(shí)卻花費(fèi)很長時(shí)間結(jié)束怎么辦的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來看看吧。

創(chuàng)新互聯(lián)是一家集網(wǎng)站建設(shè),江西企業(yè)網(wǎng)站建設(shè),江西品牌網(wǎng)站建設(shè),網(wǎng)站定制,江西網(wǎng)站建設(shè)報(bào)價(jià),網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,江西網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競爭力。可充分滿足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時(shí)我們時(shí)刻保持專業(yè)、時(shí)尚、前沿,時(shí)刻以成就客戶成長自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。

現(xiàn)象

大家在使用 Apache Spark 2.x 的時(shí)候可能會(huì)遇到這種現(xiàn)象:雖然我們的 Spark Jobs 已經(jīng)全部完成了,但是我們的程序卻還在執(zhí)行。比如我們使用 Spark SQL 去執(zhí)行一些 SQL,這個(gè) SQL 在最后生成了大量的文件。然后我們可以看到,這個(gè) SQL 所有的 Spark Jobs 其實(shí)已經(jīng)運(yùn)行完成了,但是這個(gè)查詢語句還在運(yùn)行。通過日志,我們可以看到 driver 節(jié)點(diǎn)正在一個(gè)一個(gè)地將 tasks 生成的文件移動(dòng)到最終表的目錄下面,當(dāng)我們作業(yè)生成的文件很多的情況下,就很容易產(chǎn)生這種現(xiàn)象。

為什么會(huì)造成這個(gè)現(xiàn)象

Spark 2.x 用到了 Hadoop 2.x,其將生成的文件保存到 HDFS 的時(shí)候,最后會(huì)調(diào)用了 saveAsHadoopFile,而這個(gè)函數(shù)在里面用到了 FileOutputCommitter,如下:

問題就出在了 Hadoop 2.x 的 FileOutputCommitter 實(shí)現(xiàn)FileOutputCommitter 里面有兩個(gè)值得注意的方法:commitTask 和 commitJob。在 Hadoop 2.x 的FileOutputCommitter 實(shí)現(xiàn)里面,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)控制著 commitTask 和 commitJob 的工作方式。具體代碼如下(為了說明方便,我去掉了無關(guān)緊要的語句,完整代碼可以參見 FileOutputCommitter.java):

大家可以看到 commitTask 方法里面,有個(gè)條件判斷 algorithmVersion == 1,這個(gè)就是 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值,默認(rèn)為1;如果這個(gè)參數(shù)為1,那么在 Task 完成的時(shí)候,是將 Task 臨時(shí)生成的數(shù)據(jù)移到 task 的對應(yīng)目錄下,然后再在 commitJob 的時(shí)候移到最終作業(yè)輸出目錄,而這個(gè)參數(shù),在 Hadoop 2.x 的默認(rèn)值就是 1!這也就是為什么我們看到 job 完成了,但是程序還在移動(dòng)數(shù)據(jù),從而導(dǎo)致整個(gè)作業(yè)尚未完成,而且最后是由 Spark 的 Driver 執(zhí)行 commitJob 函數(shù)的,所以執(zhí)行的慢也是有到底的。

而我們可以看到,如果我們將 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值設(shè)置為 2,那么在 commitTask 執(zhí)行的時(shí)候,就會(huì)調(diào)用 mergePaths 方法直接將 Task 生成的數(shù)據(jù)從 Task 臨時(shí)目錄移動(dòng)到程序最后生成目錄。而在執(zhí)行 commitJob 的時(shí)候,直接就不用移動(dòng)數(shù)據(jù)了,自然會(huì)比默認(rèn)的值要快很多。

注意,其實(shí)在 Hadoop 2.7.0 之前版本,我們可以將 mapreduce.fileoutputcommitter.algorithm.version 參數(shù)設(shè)置為非1的值就可以實(shí)現(xiàn)這個(gè)目的,因?yàn)槌绦蚶锩娌]有限制這個(gè)值一定為2,。不過到了 Hadoop 2.7.0,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的值必須為1或2,具體參見 MAPREDUCE-4815。

怎么在 Spark 里面設(shè)置這個(gè)參數(shù)

問題已經(jīng)找到了,我們可以在程序里面解決這個(gè)問題。有以下幾種方法:

直接在 conf/spark-defaults.conf 里面設(shè)置 spark.hadoop.mapreduce.fileoutputcommitter.algorithm.version 2,這個(gè)是全局影響的。

直接在 Spark 程序里面設(shè)置,spark.conf.set("mapreduce.fileoutputcommitter.algorithm.version", "2"),這個(gè)是作業(yè)級(jí)別的。

如果你是使用 Dataset API 寫數(shù)據(jù)到 HDFS,那么你可以這么設(shè)置 dataset.write.option("mapreduce.fileoutputcommitter.algorithm.version", "2")。

不過如果你的 Hadoop 版本為 3.x,mapreduce.fileoutputcommitter.algorithm.version 參數(shù)的默認(rèn)值已經(jīng)設(shè)置為2了,具體參見 MAPREDUCE-6336 和 MAPREDUCE-6406。

因?yàn)檫@個(gè)參數(shù)對性能有一些影響,所以到了 Spark 2.2.0,這個(gè)參數(shù)已經(jīng)記錄在 Spark 配置文檔里面了 configuration.html,具體參見 SPARK-20107。

當(dāng)前題目:ApacheSpark2.0在作業(yè)完成時(shí)卻花費(fèi)很長時(shí)間結(jié)束怎
文章起源:http://www.rwnh.cn/article44/cgjphe.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供做網(wǎng)站、網(wǎng)站內(nèi)鏈、關(guān)鍵詞優(yōu)化、網(wǎng)頁設(shè)計(jì)公司、商城網(wǎng)站、用戶體驗(yàn)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)
和林格尔县| 灵石县| 金阳县| 二连浩特市| 固原市| 扶风县| 迭部县| 云梦县| 镇巴县| 醴陵市| 神池县| 包头市| 酉阳| 澄迈县| 泰安市| 满城县| 华宁县| 鄄城县| 睢宁县| 若羌县| 大宁县| 三河市| 三亚市| 东光县| 黔东| 淳安县| 德兴市| 崇文区| 肥西县| 屯昌县| 前郭尔| 安康市| 武乡县| 延长县| 苏尼特左旗| 泾川县| 连云港市| 桂阳县| 湾仔区| 五常市| 金寨县|