新聞中心
在Linux上構(gòu)建容器化的大數(shù)據(jù)分析平臺(tái)

成都創(chuàng)新互聯(lián)公司是創(chuàng)新、創(chuàng)意、研發(fā)型一體的綜合型網(wǎng)站建設(shè)公司,自成立以來(lái)公司不斷探索創(chuàng)新,始終堅(jiān)持為客戶提供滿意周到的服務(wù),在本地打下了良好的口碑,在過(guò)去的十年時(shí)間我們累計(jì)服務(wù)了上千家以及全國(guó)政企客戶,如成都玻璃鋼雕塑等企業(yè)單位,完善的項(xiàng)目管理流程,嚴(yán)格把控項(xiàng)目進(jìn)度與質(zhì)量監(jiān)控加上過(guò)硬的技術(shù)實(shí)力獲得客戶的一致贊譽(yù)。
隨著大數(shù)據(jù)技術(shù)的發(fā)展,越來(lái)越多的企業(yè)開始關(guān)注如何利用大數(shù)據(jù)技術(shù)提高業(yè)務(wù)效率,而容器化技術(shù)的出現(xiàn),為大數(shù)據(jù)分析平臺(tái)的搭建提供了一種更為便捷、靈活的方式,本文將介紹如何在Linux上構(gòu)建容器化的大數(shù)據(jù)分析平臺(tái)。
Docker簡(jiǎn)介
Docker是一個(gè)開源的應(yīng)用容器引擎,它允許開發(fā)者將應(yīng)用程序及其依賴打包到一個(gè)輕量級(jí)、可移植的容器中,然后發(fā)布到任何流行的Linux機(jī)器或Windows機(jī)器上,也可以實(shí)現(xiàn)虛擬化,容器是完全使用沙箱機(jī)制,相互之間不會(huì)有任何接口。
Kubernetes簡(jiǎn)介
Kubernetes是一個(gè)開源的容器編排平臺(tái),用于自動(dòng)化部署、擴(kuò)展和管理容器化應(yīng)用程序,它可以幫助您輕松地管理多個(gè)容器化應(yīng)用,確保它們始終處于運(yùn)行狀態(tài),并在需要時(shí)自動(dòng)擴(kuò)展。
構(gòu)建容器化的大數(shù)據(jù)分析平臺(tái)
1、安裝Docker和Kubernetes
在Linux上安裝Docker和Kubernetes非常簡(jiǎn)單,以下是在Ubuntu系統(tǒng)上安裝Docker和Kubernetes的命令:
更新軟件包列表 sudo aptget update 安裝Docker sudo aptget install docker.io 安裝Kubernetes sudo aptget install kubernetescni
2、部署大數(shù)據(jù)分析平臺(tái)
在大數(shù)據(jù)分析平臺(tái)上部署容器化的服務(wù),可以使用Docker Compose,創(chuàng)建一個(gè)名為dockercompose.yml的文件,內(nèi)容如下:
version: '3'
services:
zookeeper:
image: confluentinc/cpzookeeper:latest
ports:
"2181:2181"
kafka:
image: confluentinc/cpkafka:latest
depends_on:
zookeeper
ports:
"9092:9092"
environment:
KAFKA_BROKER_ID: 1
KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
KAFKA_ADVERTISED_LISTENERS: PLAINTEXT://kafka:9092
KAFKA_OFFSETS_TOPIC_REPLICATION_FACTOR: 1
sparkmaster:
image: bde2020/sparkmaster:2.4.4hadoop3.2.2java8
ports:
"8080:8080"
sparkworker:
image: bde2020/sparkworker:2.4.4hadoop3.2.2java8
depends_on:
sparkmaster
environment:
SPARK_MASTER: spark://sparkmaster:7077
HADOOP_CONF_DIR: /etc/hadoop/conf/coresite.xml,/etc/hadoop/conf/hdfssite.xml,/etc/hadoop/conf/mapredsite.xml,/etc/hadoop/conf/yarnsite.xml,/etc/hadoop/conf/log4j.properties,/etc/spark/conf,/etc/spark/security,/usr/lib/spark/conf,/usr/local/spark/conf,/usr/local/hadoop/etc/hadoop,/usr/local/hadoop/share/hadoop,/usr/local/hadoop/share/common,/usr/local/hadoop/share/hdfs,/usr/local/hadoop/share/mapreduce,/usr/local/hadoop/share/yarn,/usr/local/hadoop/share/yarn/*.xml,~/.aws,~/.ssh,~/*.sh,~/*.py,~/*.jar,~/*.zip,~/*.tar.gz,~/*.tgz,~/*.pig,~/*.pyenv,~/*.Renviron,~/*.Rprofile,~/*.RData,~/*.rda,~/*.rds,~/*.csv,~/*.json,~/*.parquet,~/*.avro,~/*.parquet,~/*.orc,~/*.txt,~/*.log,~/*.properties,~/*.xml,~/*.ini,~/*.env,~/*.cfg,~/*.toml,~/*.yaml,~/*.yml,~/*.bats,~/*.cmd,~/*.ps1,~/*.sql,~/*.pl,~/*.prolog,~/*.lisp,~/*.elisp,~/*.emacs,~/*.scala,~/*.groovy,~/*.ruby,~/*.go,~/*.js,~/*.ts,~/*.php,~/*.rb,~/*.erb,~/*.html,~/*.css,~/*.less,~/*.scss,~/*.md,~/*.markdown,~/*.rst,~/*.asciidoc,~/*.tex,~/*.bibtex,~/*.aux,~/*.fls,~/*.logfile,~/*.fdb_latexmk,~/*.synctex*,exclude=/***************************************************************************{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{,}{,}/{/ exclude=/{}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ {}/ exclude=**/#include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include #include using namespace std; int main() { return 0; } /*!regarding the container images used in this example (ecosystem): bde2020 / sparkmaster bde2020 / sparkworker confluentinc / cpzookeeper confluentinc / cpkafka bde2020 / sparkmaster:2
網(wǎng)站題目:linux容器技術(shù)
文章網(wǎng)址:http://www.dlmjj.cn/article/dpedodg.html


咨詢
建站咨詢
