新聞中心
SPARK歷史任務(wù)查看需要一下配置:
修改spark-defaults.conf配置文件
spark.eventLog.enabled true
spark.eventLog.dir hdfs://192.168.9.110:9000/eventLogs
spark.eventLog.compress true
修改spark-env.sh配置文件
export SPARK_HISTORY_OPTS="-Dspark.history.ui.port=18080 -Dspark.history.retainedApplications=3 -Dspark.history.fs.logDirectory=hdfs://DEV-HADOOP-01:9000/sparkHistoryLogs"
以上兩個(gè)配置中spark.eventLog.dir和SPARK_HISTORY_OPTS都用到了hdfs來(lái)存儲(chǔ)歷史任務(wù)的日志信息.所以需要提前在hdfs中新建這兩個(gè)目錄 hdfs://192.168.9.110:9000/eventLogs和hdfs://DEV-HADOOP-01:9000/sparkHistoryLogs
進(jìn)入hadoop的bin目錄 命令 : cd /data/server/hadoop-2.6.0/bin
新建hdfs://192.168.9.110:9000/eventLogs命令 : ./hadoop dfs -mkdir /eventLogs
新建hdfs://DEV-HADOOP-01:9000/sparkHistoryLogs命令 : ./hadoop dfs -mkdir /sparkHistoryLogs
重啟spark集群
啟動(dòng)歷史任務(wù)進(jìn)程
sbin/start-history-server.sh
歷史任務(wù)進(jìn)程啟動(dòng)驗(yàn)證
執(zhí)行jps命令,出現(xiàn)HistoryServer進(jìn)程
查看歷史任務(wù)Web UI
http://192.168.9.110:18080/
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無(wú)理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。
文章名稱:SPARK啟動(dòng)歷史任務(wù)查看-創(chuàng)新互聯(lián)
文章URL:http://www.dlmjj.cn/article/djeish.html