基于Kubernetes的Spark部署完全指南
基于Kubernetes的Spark部署完全指南
【編者的話】本文是在Kubernets上搭建Spark集群的操作指南,同時(shí)提供了Spark測(cè)試任務(wù)及相關(guān)的測(cè)試數(shù)據(jù),通過(guò)閱讀本文,你可以實(shí)踐從制作Spark鏡像、搭建Spark容器集群,到在集群上運(yùn)行測(cè)試任務(wù)的完整流程。
 Yarn曾經(jīng)是Hadoop默認(rèn)的資源編排管理平臺(tái)。但最近情況有所變化,特別是對(duì)于Hadoop中的Spark,由于其與S3等其他存儲(chǔ)平臺(tái)集成得很好,而與Hadoop生態(tài)中其他組件反而沒(méi)有太緊密的關(guān)聯(lián),因此Kubernetes正迅速替代Yarn,成為基于對(duì)象存儲(chǔ)的Spark系統(tǒng)的默認(rèn)編排管理平臺(tái)。在這篇文章中,我們將深入研究如何在Kubernetes集群上構(gòu)建和部署Spark容器。由于Spark的運(yùn)行依賴于數(shù)據(jù),我們將配置Spark集群通過(guò)S3 API進(jìn)行存儲(chǔ)操作。
構(gòu)建Spark容器
在Kubernetes上部署應(yīng)用的第一步,是創(chuàng)建容器。雖然有些項(xiàng)目會(huì)提供官方的容器鏡像,但截止到寫此文時(shí),Apache Spark并沒(méi)有提供官方鏡像。因此我們將自己創(chuàng)建Spark容器,讓我們從Dockerfile開始。
FROM?java:openjdk-8-jdkENV?hadoop_ver?2.8.2 ENV?spark_ver?2.4.4RUN?mkdir?-p?/opt?&&?\ cd?/opt?&&?\ curl?http://archive.apache.org/dist/hadoop/common/hadoop-${hadoop_ver}/hadoop-${hadoop_ver}.tar.gz?|?\tar?-zx?&&?\ ln?-s?hadoop-${hadoop_ver}?hadoop?&&?\ echo?Hadoop?${hadoop_ver}?installed?in?/optRUN?mkdir?-p?/opt?&&?\ cd?/opt?&&?\ curl?http://archive.apache.org/dist/spark/spark-${spark_ver}/spark-${spark_ver}-bin-without-hadoop.tgz?|?\tar?-zx?&&?\ ln?-s?spark-${spark_ver}-bin-without-hadoop?spark?&&?\ echo?Spark?${spark_ver}?installed?in?/optENV?SPARK_HOME=/opt/spark ENV?PATH=$PATH:$SPARK_HOME/bin ENV?HADOOP_HOME=/opt/hadoop ENV?PATH=$PATH:$HADOOP_HOME/bin ENV?LD_LIBRARY_PATH=$HADOOP_HOME/lib/nativeRUN?curl?http://central.maven.org/maven2/org/apache/hadoop/hadoop-aws/2.8.2/hadoop-aws-2.8.2.jar?-o?/opt/spark/jars/hadoop-aws-2.8.2.jar RUN?curl?http://central.maven.org/maven2/org/apache/httpcomponents/httpclient/4.5.3/httpclient-4.5.3.jar?-o?/opt/spark/jars/httpclient-4.5.3.jar RUN?curl?http://central.maven.org/maven2/joda-time/joda-time/2.9.9/joda-time-2.9.9.jar?-o?/opt/spark/jars/joda-time-2.9.9.jar RUN?curl?http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-core/1.11.712/aws-java-sdk-core-1.11.712.jar?-o?/opt/spark/jars/aws-java-sdk-core-1.11.712.jar RUN?curl?http://central.maven.org/maven2/com/amazonaws/aws-java-sdk/1.11.712/aws-java-sdk-1.11.712.jar?-o?/opt/spark/jars/aws-java-sdk-1.11.712.jar RUN?curl?http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-kms/1.11.712/aws-java-sdk-kms-1.11.712.jar?-o?/opt/spark/jars/aws-java-sdk-kms-1.11.712.jar RUN?curl?http://central.maven.org/maven2/com/amazonaws/aws-java-sdk-s3/1.11.712/aws-java-sdk-s3-1.11.712.jar?-o?/opt/spark/jars/aws-java-sdk-s3-1.11.712.jarADD?start-common.sh?start-worker?start-master?/ ADD?core-site.xml?/opt/spark/conf/core-site.xml ADD?spark-defaults.conf?/opt/spark/conf/spark-defaults.conf ENV?PATH?$PATH:/opt/spark/bin
 在這個(gè)Dockerfile中,我們首先從官方地址下載Apache Spark和Hadoop,然后從Maven獲取關(guān)聯(lián)的jar包。當(dāng)所有關(guān)聯(lián)的文件都已經(jīng)下載并解壓到一個(gè)特定的目錄后,我們將這些重要的配置文件添加到鏡像中。
 在這個(gè)過(guò)程中,你可以很方便的添加自己環(huán)境特有的配置。
 原本我們可以跳過(guò)以上步驟,直接使用一個(gè)預(yù)先構(gòu)建好的鏡像,但是通過(guò)解讀這些步驟可以讓我們的讀者看到Spark容器內(nèi)部的內(nèi)容,高級(jí)用戶可以據(jù)此修改來(lái)滿足他們特殊的需求。
 以上示例中使用到的Dockerfile和其他關(guān)聯(lián)的配置文件,可以從這個(gè)GitHub倉(cāng)庫(kù)中獲取。如果要使用這個(gè)倉(cāng)庫(kù)中的內(nèi)容,請(qǐng)先使用以下命令將其克隆到本地:
 現(xiàn)在,你可以根據(jù)需要在你的環(huán)境中進(jìn)行任何更改,然后構(gòu)建鏡像,并上傳到你使用的容器注冊(cè)表中。在本文的示例中,我使用Dockerhub作為容器注冊(cè)表,命令如下:
 記得將其中的mydockerrepo替換為你實(shí)際的注冊(cè)表名字。
在Kubernetes上部署Spark
至此,Spark容器鏡像已經(jīng)構(gòu)建好,并可以拉取使用了。讓我們使用此鏡像來(lái)部署Spark Master和Worker。第一步是創(chuàng)建Spark Master。我們將使用Kubernetes ReplicationController創(chuàng)建Spark Master。在本文的示例中,我僅用單實(shí)例創(chuàng)建Spark Master。而在有HA需求的生產(chǎn)環(huán)境中,你可能需要將副本數(shù)設(shè)置為3或者以上。
kind:?ReplicationController apiVersion:?v1 metadata: name:?spark-master-controller spec: replicas:?1 selector: component:?spark-master template: metadata:labels:component:?spark-master spec:hostname:?spark-master-hostnamesubdomain:?spark-master-headlesscontainers:-?name:?spark-masterimage:?mydockerrepo/spark:2.4.4imagePullPolicy:?Alwayscommand:?["/start-master"]ports:-?containerPort:?7077-?containerPort:?8080resources:requests:cpu:?100m
 為了使Spark Worker節(jié)點(diǎn)可以發(fā)現(xiàn)Spark Master節(jié)點(diǎn),我們還需要?jiǎng)?chuàng)建headless服務(wù)。
 當(dāng)你從GitHub倉(cāng)庫(kù)完成克隆,并進(jìn)入spark-kubernetes目錄后,就可以啟動(dòng)Spark Master服務(wù)了,命令如下:
 現(xiàn)在,確保Master節(jié)點(diǎn)和所有的服務(wù)都正常運(yùn)行,然后就可以開始部署Worker節(jié)點(diǎn)了。Spark Worker的副本數(shù)設(shè)置為2,你可以根據(jù)需要修改。Worker啟動(dòng)命令如下:
 最后,通過(guò)以下命令確認(rèn)是否所有服務(wù)都正常運(yùn)行:
 執(zhí)行以上命令,你應(yīng)該可以看到類似下面的內(nèi)容:
?
向Spark集群提交Job
現(xiàn)在讓我們提交一個(gè)Job,看看是否執(zhí)行正常。不過(guò)在此之前,你需要一個(gè)有效的AWS S3賬戶,以及存有樣本數(shù)據(jù)的桶存在。我使用了Kaggle下載樣本數(shù)據(jù),樣本數(shù)據(jù)可以從https://www.kaggle.com/datasna ... s.csv獲取,獲取以后需要上傳到S3的桶里。假定桶名是s3-data-bucket,那么樣本數(shù)據(jù)文件則位于s3-data-bucket/data.csv。
 數(shù)據(jù)準(zhǔn)備好以后,將其加載到一個(gè)Spark master pod中執(zhí)行。以Pod名為spark-master-controller-5rgz2為例,命令如下:
 如果你登錄進(jìn)入了Spark系統(tǒng),可以運(yùn)行Spark Shell:
 現(xiàn)在讓我們告訴Spark Master,S3存儲(chǔ)的詳細(xì)信息,在上文所示的Scale提示符中輸入以下配置:
 現(xiàn)在,只需將以下內(nèi)容粘貼到Scala提示符中,以提交Spark Job(請(qǐng)記得修改S3相關(guān)字段):
 最后,你可以使用kubectl patch command命令更新Spark部署。比如,你可以在負(fù)載較高時(shí)添加更多工作節(jié)點(diǎn),然后在負(fù)載下降后刪除這些工作節(jié)點(diǎn)。
原文鏈接:Complete guide to deploy Spark on Kubernetes(翻譯:木木TM)
總結(jié)
以上是生活随笔為你收集整理的基于Kubernetes的Spark部署完全指南的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
 
                            
                        - 上一篇: android 页面无法点击,为什么点击
- 下一篇: java更改用户邮箱_git修改user
