新聞中心
十多款Redis容器化技術(shù)選型對比,K8S并非萬金油
作者:張晉濤 2021-06-29 15:39:16
云計算
Redis Docker使用Host的網(wǎng)絡(luò)模式、磁盤使用本地掛載模式這種方案怎么樣?這里的話我們暫時先不說這個方案如何,因為在今天的分享之后,我相信大家對于這個方案應(yīng)該會有一個更清晰的認識和評價。

我們注重客戶提出的每個要求,我們充分考慮每一個細節(jié),我們積極的做好成都網(wǎng)站制作、網(wǎng)站設(shè)計服務(wù),我們努力開拓更好的視野,通過不懈的努力,創(chuàng)新互聯(lián)贏得了業(yè)內(nèi)的良好聲譽,這一切,也不斷的激勵著我們更好的服務(wù)客戶。 主要業(yè)務(wù):網(wǎng)站建設(shè),網(wǎng)站制作,網(wǎng)站設(shè)計,成都小程序開發(fā),網(wǎng)站開發(fā),技術(shù)開發(fā)實力,DIV+CSS,PHP及ASP,ASP.Net,SQL數(shù)據(jù)庫的技術(shù)開發(fā)工程師。
張晉濤
云原生技術(shù)專家
-
負責(zé)DevOps的實踐和落地,推進容器化技術(shù)落地和運維自動化等。
-
參與了眾多知名開源項目,對Docker、Kubernetes及相關(guān)生態(tài)有大量生產(chǎn)實踐和深入源碼的研究。
今天將分享的內(nèi)容分為以下4個方面:
-
一、緣起
-
二、介紹多樣的容器化技術(shù)
-
三、Redis介紹
-
四、Redis容器化方案的對比
一、緣起
首先我們先聊一下為什么今天我會分享這個主題。我和朋友一起組織了一個 Redis技術(shù)交流群,到現(xiàn)在已經(jīng)經(jīng)營了6年左右的時間,其中某一天在群里有一個小伙伴就拋出來一個問題:
他問大家線上的Redis有沒有使用Docker安裝?Docker使用Host的網(wǎng)絡(luò)模式、磁盤使用本地掛載模式這種方案怎么樣?這里的話我們暫時先不說這個方案如何,因為在今天的分享之后,我相信大家對于這個方案應(yīng)該會有一個更清晰的認識和評價。
二、介紹多樣的容器化技術(shù)
1、chroot和jails
在容器化技術(shù)方面,其實歷史很久遠了。雖然我們現(xiàn)在用的容器化技術(shù),或者說 k8s,還有云原生的概念是近幾年才火起來的,但是實際上就容器化技術(shù)的發(fā)展來說,其實是很早的了。比如說最早的時候來自chroot,chroot大家可能都用過,或者都有了解過,在1979年的時候它是來自Unix,它主要的功能是可以修改進程和子進程的/。
通過使用chroot達到什么樣效果呢?使用chroot加某一個目錄,然后再啟動一個進程,那么這個進程自己所看到的 / ,就是我們平時所說的 / 目錄,這個 / 就會是我們剛才指定的文件夾,或者說剛才指定的路徑。這樣子的話可以有效的保護我們操作系統(tǒng)上面的一些文件,或者說權(quán)限和安全相關(guān)的東西。
在2000年的時候,出現(xiàn)了一個新的技術(shù),叫做jails,其實它已經(jīng)具備了sandbox,就是沙箱環(huán)境的雛形。使用jails的話,可以讓一個進程或者說創(chuàng)建的環(huán)境擁有獨立的網(wǎng)絡(luò)接口和IP地址,而當(dāng)我們提到使用jails的話,我們肯定會想到一個問題,就是如果你有了獨立的網(wǎng)絡(luò)接口和IP地址,這樣的話就不能發(fā)原始的套接字,通常跟原始的套接字接觸得比較多的就是我們使用的Ping命令。默認的情況下,這樣子是不允許使用原始的套接字的,而有自己的網(wǎng)絡(luò)接口和IP地址,這個感覺上就像是我們常用的虛擬機。
2、Linux VServer和OpenVZ
接下來在2001年的時候,在Linux社區(qū)當(dāng)中就出現(xiàn)了一個新的技術(shù)叫做Linux VServer。Linux VServer有時候可以簡寫成lvs,但是和我們平時用到的4層的代理lvs其實是不一樣的。它其實是對Linux內(nèi)核的一種Patch,它是需要修改Linux內(nèi)核,修改完成之后,我們可以讓它支持系統(tǒng)級的虛擬化,同時使用Linux VServer的話,它可以共享系統(tǒng)調(diào)用,它是沒有仿真開銷的,也就是說我們常用的一些系統(tǒng)調(diào)用、系統(tǒng)調(diào)用的一些函數(shù)都是可以共享的。
在2005年的時候,出現(xiàn)的一個新的技術(shù)—OpenVZ。OpenVZ其實和Linux VServer有很大的相似點,它也是對內(nèi)核的一種Patch,這兩種技術(shù)最大的變化就是它對Linux打了很多的Patch,加了很多新的功能,但是在2005年的時候,沒有把這些全部都合并到Linux的主干當(dāng)中,而且在使用OpenVZ的時候,它可以允許每個進程可以有自己的/proc或者說自己的/sys。
其實我們大家都知道在Linux當(dāng)中,比如說啟動一個進程,你在他的/proc/self下面,你就可以看到進程相關(guān)的信息。如果你有了自己獨立的/proc,其實你就可以達到和其他的進程隔離開的效果。
接下來另外一個顯著的特點就是它有獨立的users和groups,也就是說你可以有獨立的用戶或者獨立的組,而且這個是可以和系統(tǒng)當(dāng)中其他的用戶或者組獨立開的。
其次的話OpenVZ是有商業(yè)使用的,就是有很多國外的主機和各種VPS都是用OpenVZ這種技術(shù)方案。
3、namespace 和 cgroups
到了2002年的時候,新的技術(shù)是namespace。在Linux當(dāng)中我們有了新的技術(shù)叫做namespace,namespace可以達到進程組內(nèi)的特定資源的隔離。因為我們平時用到的namespace其實有很多種,比如說有PID、net等,而且如果你不在相同的namespace下面的話,是看不到其他進程特定的資源的。
到了2013年的時候,產(chǎn)生了一個新的namespace的特性,就是user namespace。其實當(dāng)有了user namespace,就和上文提到的OpenVZ實現(xiàn)的獨立用戶和組的功能是比較像的。
對于namespace的操作當(dāng)中,通常會有三種。
1)Clone
可以指定子進程在什么namespace下面。
2)Unshare
它是與其他進程不共享的,unshare再加一個-net,就可以與其他的進程獨立開,不共享自己的net,不共享自己的網(wǎng)絡(luò)的namespace。
3)Setns
就是為進程設(shè)置 namespace。
到了2008年,cgroups開始被引入到Linux內(nèi)核當(dāng)中,它可以用于隔離進程組的資源使用,比如說可以隔離CPU、內(nèi)存、磁盤,還有網(wǎng)絡(luò),尤其是他在2013年和user namespace進行了一次組合之后,并且進行了重新的設(shè)計,這個時候,就變得更現(xiàn)代化了,就像我們現(xiàn)在經(jīng)常使用到的Docker的相關(guān)特性,其實都來自于這個時候。所以說cgroups和namespace構(gòu)成現(xiàn)代容器技術(shù)的基礎(chǔ)。
4、LXC 和 CloudFoundry
在2008年的時候,新的一項技術(shù)叫做LXC, 我們也會叫他Linux Container(以下均簡稱LXC)。上文我們提到了很多容器化的技術(shù),比如Linux VServer、OpenVZ,但是這些都是通過打Patch來實現(xiàn)的,而LXC是首個可以直接和上游的Linux內(nèi)核共同工作的。
LXC是可以支持特權(quán)容器的,意思就是說可以在機器上面去做uid map、gid map,去做映射,而且不需要都拿root用戶去啟動,這樣子就具備了很大的便利性。而且這種方式可以讓你的被攻擊面大大縮小。LXC支持的這幾種比較常規(guī)的操作,就是LXC-start,可以用來啟動container,LXC-attach就可以進入container當(dāng)中。
到2011年的時候,CloudFoundry開始出現(xiàn)了,他實際上是使用了LXC和 Warden這兩項技術(shù)的組合,在這個時候不得不提到的,就是他的技術(shù)架構(gòu)是CS的模式,也就是說還有一個客戶端和server端,而 Warden容器,它通常是有兩層,一層是只讀os的,就是只讀的操作系統(tǒng)的文件系統(tǒng),另外一層是用于應(yīng)用程序和其依賴的非持久化的讀寫層,就是這兩層的組合。
我們之前提到的技術(shù),大多數(shù)都是針對于某一臺機器的,就是對于單機的。CloudFoundry它最大的不同就是它可以管理跨計算機的容器集群,這其實就已經(jīng)有了現(xiàn)代容器技術(shù)的相關(guān)特性了。
5、LMCTFY和systemd-nspawn
在2013年的時候, Google開源了自己的容器化的解決方案,叫做LMCTFY。這個方案是可以支持CPU、內(nèi)存還有設(shè)備的隔離。而且它是支持子容器的,可以讓應(yīng)用程序去感知到自己當(dāng)前是處在容器當(dāng)中的。另外還可以再為自己創(chuàng)建一個子容器,但是隨著2013年發(fā)展之后,它逐漸發(fā)現(xiàn)只依靠自己不停的做這些技術(shù),就相當(dāng)于單打獨斗,發(fā)展始終是有限的,所以它逐步的將自己的主要精力放在抽象和移植上,把自己的核心特性都移植到了libcontainer。而libcontainer之后就是Docker的運行時的一個核心,再之后就是被Docker捐到了OCI,再然后就發(fā)展到了runC。這部分內(nèi)容我們稍后再詳細講解。
大家都知道服務(wù)器它肯定是有一個 PID為1的進程。就是它的初始進程、守護進程,而現(xiàn)代的操作系統(tǒng)的話,大多數(shù)大家都使用的是systemd,同樣systemd它也提供了一種容器化的解決方案,叫做 systemd-nspawn。這個技術(shù)的話,它是可以和systemd相關(guān)的工具鏈進行結(jié)合的。
systemd除了有我們平時用到的systemctl之類的,還有systemd machine ctl,它可以去管理機器,這個機器支持兩種主要的接口,一種是管理容器相關(guān)的接口,另外一種是管理虛擬機相關(guān)的接口。
而我們通常來講,就是說systemd提供的容器技術(shù)解決方案,它是允許我們通過machine ctl去容器去進行交互的,比如說你可以通過machine ctl start,去啟動一個systemd支持的容器,或者通過 machine ctl stop,去關(guān)掉它,而在這種技術(shù)下,它是支持資源還有網(wǎng)絡(luò)等隔離的,其實它最主要的是systemd ns,它其實是使用namespace去做隔離。對于資源方面是來自于systemd,systemd是可以使用cgroups去做資源隔離的,其實這也是這兩種兩種技術(shù)方案的組合。
6、Docker
而在2013年Docker也出現(xiàn)了。通常來講,Docker是容器時代的引領(lǐng)者,為什么這么說呢?因為Docker在2013年出現(xiàn)的時候,他首先提到了標準化的部署單元,就是Docker image。同時它還推出了DockerHub,就是中央鏡像倉庫。允許所有人通過DockerHub去下載預(yù)先已經(jīng)構(gòu)建好的Docker image,并且通過一行Docker run就可以啟動這個容器。
在眾多使用起來比較繁瑣、比較復(fù)雜的技術(shù)下,Docker這時提出來,你只需要一行Docker run,就可以啟動一個容器,它大大簡化了大家啟動容器的復(fù)雜度,提升了便捷性。
所以Docker這項技術(shù)就開始風(fēng)靡全球。而Docker它主要提供的一些功能是什么呢?比如說資源的隔離和管理。而且Docker在0.9之前,它的容器運行時是LXC,在0.9之后,他就開始把LXC替換掉,替換成了libcontainer,而這個libcontainer其實就是我們在上文提到的Google的 LMCTFY。再之后libcontainer捐給了OCI。而那之后Docker現(xiàn)在的容器運行時是什么呢?是containerd。containerd的更下層是runc,runc的核心其實就是libcontainer。
而到了2014年的時候, Google發(fā)現(xiàn)大多數(shù)的容器化解決方案,其實都只提供了單機的解決方案,同時由于Docker也是CS架構(gòu)的,所以它需要有一個Docker demand,它是需要有守護進程存在的,而這個守護進程的話,是需要用root用戶去啟動 的 , 而root用戶啟動的守護進程,其實是增加了被攻擊面,所以 Docker的安全問題也被很多人詬病。
在這個時候 Google就發(fā)現(xiàn)了這個點,并且把自己的Borg系統(tǒng)去做了開源,開源版本就是Kubernetes。Google還聯(lián)合了一些公司,組建了一個云原生基金會(CNCF)。
7、Kubernetes
通常來講Kubernetes是云原生應(yīng)用的基石,也就是說在Kubernetes出現(xiàn)之后,我們的云原生技術(shù)開始逐步地發(fā)展起來,逐步地引領(lǐng)了潮流,Kubernetes提供了一些主要的特性。
它可以支持比較靈活的調(diào)度、控制和管理,而這個調(diào)度程序的話,除了它默認的以外,也可以比較方便的去對它做擴展,比如說我們可以自己去寫自己的調(diào)度程序,或者說親和性、反親和性,這些其實都是我們比較常用到的一些特性。
還有包括他提供的一些服務(wù),比如說內(nèi)置的 DNS、kube-DNS或者說現(xiàn)在的CoreDNS,通過域名的方式去做服務(wù)發(fā)現(xiàn),以及Kubernetes當(dāng)中有很多的控制器。它可以將集群的狀態(tài)調(diào)整至我們預(yù)期的狀態(tài),就比如說有一個pod掛掉了,它可以自動的把它再恢復(fù)到我們預(yù)期想要的樣子。
另外就是它支持豐富的資源種類,比如說幾個主要的層級,最小的是pod,再往上有deployment,或者有StatefulSets,類似于這樣子的資源。
最后一點是它讓我們更加喜歡它的因素,就是它有豐富的CRD的拓展,即可以通過自己去寫一些自定義的資源,然后對它進行擴展,比如CRD。
8、更多的容器化技術(shù)
除了剛才我們提到的這些主要的技術(shù)以外,其實還有很多我們沒有提到的一些容器化的技術(shù),比如說像runc,上文我們沒有太多的介紹,還有containerd。containerd其實也是Docker開源出來的自己的核心,他的目標是做一個標準化工業(yè)可用的容器運行時,還有CoreOS開源出來的解決方案叫做rkt。而rkt瞄準的點就是上文提到的Docker相關(guān)的安全問題。但是rkt現(xiàn)在項目已經(jīng)終止了。
還有紅帽(Red Hat)開源出來的 podman, podman是一種可以用它來啟動容器,可以用它去管理容器,而且沒有守護進程,所以就安全性來講的話,podman可以說比Docker的安全性直觀上來看的話會好一些,但是它的便捷性來講的話,就要大打折扣了。比如說容器的重啟、開機起之類的,但是我們都是有一些不同的解決方案的。
在2017年的時候,這個時候有一個 Kata Container,而這個Kata Container它有一段發(fā)展過程,最開始是英特爾,英特爾在搞自己的容器運行時,還有一家初創(chuàng)公司叫做hyper.sh,這家公司也在搞自己的容器運行時,這兩家公司瞄準的都是做更安全的容器,他們使用的底層的技術(shù)都是基于K8S。而之后這兩家公司做了合并,hyper.sh它開源出來的一個解決方案是runv,被英特爾看上了之后就誕生了 Kata Container。在2018年的時候,AWS開源出來自己的Firecracker。
這兩項技術(shù)和我們上文提到的機器上的容器化技術(shù)其實大有不同,因為它的底層其實相當(dāng)于是虛擬機,而我們通常來講,都認為它是輕量級虛擬機的一種容器化的技術(shù)。以上就是關(guān)于多樣的容器化技術(shù)的介紹。
三、Redis介紹
接下來進入關(guān)于Redis相關(guān)的介紹,以下是從Redis的官網(wǎng)上面摘抄的一段介紹。
1、Redis使用的主要場景
其實Redis現(xiàn)在是使用最廣泛的一種KV型數(shù)據(jù)庫。而我們在使用它的時候,主要的使用場景可能有以下幾種:
-
把它當(dāng)緩存使用,把它放在數(shù)據(jù)庫之前,把它當(dāng)做緩存去使用;
-
把它當(dāng)DB來用,這種就是需要把真正的拿它來存數(shù)據(jù)做持久化。
-
做消息隊列,它支持的數(shù)據(jù)類型也比較多,這里就不再做介紹了。
2、Redis的特點
-
它是一個單線程的模型,它其實是可以有多個線程的,但是它的worker線程只有一個,在Redis6.0開始,它支持了io多線程,但io多線程只是可以有多線程去處理有網(wǎng)絡(luò)相關(guān)的部分,實際上你真正去處理數(shù)據(jù)還是單線程,所以整體而言,我們?nèi)匀话阉凶鰡尉€程模型。
-
Redis的數(shù)據(jù)其實都在內(nèi)存里頭,它是一個內(nèi)存型的數(shù)據(jù)庫。
-
與HA相關(guān), Redis想要做HA,我們以前在做 Redis的HA主要靠Redis sentinel,而后面在Redis出來cluster之后,我們主要靠Redis cluster去做HA,這是兩種主要HA的解決方案。
四、Redis容器化方案的對比
當(dāng)我們提到做 Redis運維相關(guān)的時候,我們有哪些需要考慮的點:
-
部署,如何快速的部署,如何能夠快速的部署,而且還要去管理監(jiān)聽的端口,讓端口不起沖突,還有日志和持久化文件之類的,這部分都屬于部署相關(guān)的內(nèi)容;
-
擴/縮容,也是我們經(jīng)常會遇到的問題;
-
監(jiān)控和報警;
-
故障和恢復(fù)。
以上都是我們最關(guān)注的幾個方面。我接下來就對這幾個方面去做一些介紹。
1、部署
當(dāng)我們提到去做單機多實例的時候,Redis作單機多實例去部署的時候,首先第一點就是我們希望能夠有進程級別的資源隔離,我們某一個節(jié)點上面所有部署的Redis實例,可以有自己的資源,可以不受別的實例的影響,這就是對于進程級別的資源隔離。
進程級別的資源隔離,它其實主要分為兩個方面,一方面是CPU,另一方面是內(nèi)存,其次的話我們希望在單機上面我們也可以有自己的端口管理,或者說我們可以有獨立的網(wǎng)絡(luò)資源隔離的相關(guān)的技術(shù)。
在這種情況下,首先我們提到說進程級別的資源隔離,我們介紹了那么多的容器化相關(guān)技術(shù),我們已經(jīng)知道了,支持進程級別的資源隔離的話,有最簡單的一種方案就是用cgroups,如果想要去做網(wǎng)絡(luò)資源隔離的話,我們有namespace,也就是說所有支持cgroups和 namespace的這種計劃的解決方案,都可以滿足我們這個地方的需求。
再有一種方案就是虛擬化的方案,也就是我們上文提到比如說Kata Container,Kata Container這種基于虛擬化的方式,因為虛擬化的方案其實大家都有所接觸,大家都知道就是虛擬化的這種技術(shù),其實默認情況下,剛開始全部都做隔離。
所以對于部署而言,如果你使用的是比如說像Docker,比如說你想使用的像 systemd-nspawn這些它都可以既用到cgroups,又用到了 namespace,是都可以去用的,只不過是你需要考慮一些便捷性,比如說你如果是使用Docker的話,進行一個Docker命令跑過去,然后只要讓它映射到不同的端口,其實就結(jié)束了。
如果你使用是systemd-nspawn,這樣子的話,你需要去寫一些配置文件。如果你要是去用一些虛擬化的解決方案的話,同樣的也需要去準備一些鏡像。
2、擴/縮容
關(guān)于擴/縮容,其實會有兩種最主要的場景,一種場景就是單實例 maxmemory 調(diào)整,就是我們最大內(nèi)存的調(diào)整。還有一種是對于我們的集群化的集群解決方案,就是Redis Cluster。對于這種集群規(guī)模,我們有擴/縮容的話,會有兩方面的變化。
一方面是 Node,就是我們的節(jié)點的變更,如果會新增節(jié)點,也可能會去移除節(jié)點。
另外一種就是Slot的變更,就是希望把我的 slot 去做一些遷移,當(dāng)然這些和Node節(jié)點會是相關(guān)的,因為當(dāng)我們?nèi)プ鰯U容的時候,我們把Redis Cluster當(dāng)中的一些Node節(jié)點增多,增多了之后,就可以不給他分配Slot,或者說我想要讓某些Slot集中到某些節(jié)點上面,其實這些需求也是同樣存在的。
那我們來看一下,如果你當(dāng)時想要去做maxmemory的調(diào)整,如果我們是前提已經(jīng)做了容器化,想通過 cgroups去對它做資源的限制,就需要有一個可以支持動態(tài)調(diào)整 cgroups配額的解決方案。
比如說我們用到Docker update,它是可以直接修改某個實例,或者說其中的某一個容器的cgroups資源的一些限制,比如說我們可以Docker update,給它指定新的內(nèi)存,可以限制它最大可用內(nèi)存,當(dāng)你把它的可用內(nèi)存數(shù)調(diào)大,接下來你就可以對實例去調(diào)整它的 maxmemory ,也就是說對于單實例 maxmemory,其實最主要的就是需要有cgroups的技術(shù),向cgroups的技術(shù)提供一些支持。
對于集群節(jié)點的變更的話,這個部分稍后再做詳細介紹。
3、監(jiān)控報警
第三點就是監(jiān)控報警,不管是使用物理機也好,或者使用云環(huán)境也好,或者使用任何解決方案都好,監(jiān)控報警我們最想要得到的效果就是,它可以自動發(fā)現(xiàn)。
我們希望當(dāng)啟動一個實例之后,我們就可以立馬知道這個實例A他已經(jīng)起來了,并且知道他的狀態(tài)是什么,而監(jiān)控報警的話,這部分其實是不依賴于特定的容器化技術(shù)的,就即使是在純粹的物理機上部署,也可以通過一些解決方案自動的發(fā)現(xiàn)它,自動的把它注冊到我們的監(jiān)控系統(tǒng)當(dāng)中去,所以它是屬于監(jiān)控報警的這部分,其實它是不依賴于特定的容器技術(shù)的,但唯一的一個問題就是說假如說使用了容器化的方案,可以讓常用的 Redis exporter,配合Prometheus去做監(jiān)控,可以讓 Redis exporter和 Redis server,這兩個進程可以處于同一個網(wǎng)絡(luò)的命名空間。
如果他們兩個處于同一個網(wǎng)絡(luò)的命名空間的話,可以直接通過127.0.0.1:6379,然后直接去聯(lián)通它,如果我們使用的是k8s的話,可以直接把它倆放到一個pod當(dāng)中,但是這些都無關(guān)緊要,因為它是不依賴于特定的容器化技術(shù)的,你可以使用任何你想要用的技術(shù),都可以去做監(jiān)控和報警。
4、故障恢復(fù)
最后我們提到的部分是故障和恢復(fù)。在這個部分我認為最主要的有三個方面:
-
第一個是實例的重啟。
有可能在某些情況下,某些場景下,你的實例在運行過程當(dāng)中它可能會宕掉,如果你想讓他自動重啟的話,你需要有一個進程管理的工具。對于我們而言,上文我們提到了systemd,systemd是可以支持對于某一個進程的自動拉起的,還可以支持進程掛掉之后自動拉起, 可以 restart,或者你使用Docker,它也有一個restart policy,可以指定他為 always或者指定為on-failure,然后讓它在掛掉的時候再把它給拉起來。
如果你使用的是k8s,那么就更簡單了,可以自動拉起來。
-
第二個是主從切換。
主從切換相對來說是一個常態(tài),但在這里我也把它列到故障恢復(fù)當(dāng)中,是因為可能在主從切換的過程當(dāng)中,有可能你的集群狀況已經(jīng)不健康了,是會有這種情況存在的。那主從切換的時候我們需要做什么?第一方面,需要讓他能夠有數(shù)據(jù)的持久化,另一方面在主從切換的時候,有可能會遇到一種情況,就是資源不夠,導(dǎo)致主從切換失敗,在這種情況下,其實和我們上文前面提到的擴/縮容其實是相關(guān)的,所以在這種情況下就必須得給他加資源,而最好的辦法是可以自動給他加資源。
在k8s當(dāng)中,想要讓它自動加資源,我們通常會給他設(shè)置它的request和limit,就是資源的配額,希望它能自動的加起來,我們通常把他叫做vpa。
-
第三個是數(shù)據(jù)恢復(fù)。
通常來講,比如說我們開了 RDB和AOF,而且希望我們的數(shù)據(jù)可以保存下來,以便于在我們數(shù)據(jù)恢復(fù)的時候可以直接開始使用。所以數(shù)據(jù)持久化也是一方面。
我們?nèi)プ鋈萜骰臅r候,我們需要考慮哪些點?如果說你是使用Docker的話,你需要去掛一個券,然后你可以把這個數(shù)據(jù)去做持久化,比如說你使用systemd-nspawn也需要有一個文件目錄去把這個數(shù)據(jù)做持續(xù)化。
如果你使用的是k8s的話,在掛券的時候,你會有各種各樣的選擇,比如說你可以去掛 ceph的RDB、s3或者一個本地的某一個文件目錄。但是為了更高的可靠性,可能會使用副本數(shù)更多的分布式存儲。
5、Node節(jié)點變更
接下來,我們來聊一下上文我們在提到服務(wù)擴/縮容的時候,提到的關(guān)于Node節(jié)點變更,比如說我想要讓我的某一個Redis cluster,去擴充一些節(jié)點,擴充節(jié)點的時候,那就意味著你必須能夠加入集群,能夠和集群正常通信,這才說明你真正的加入到了集群當(dāng)中。
而我們也知道在Redis cluster當(dāng)中,你要去做集群,最大的一個問題就是k8s,k8s當(dāng)中做服務(wù)發(fā)現(xiàn)其實它都是大多數(shù)通過一個域名,而我們的Redis當(dāng)中,比如說我們的NodeIP,它其實只支持IP,它并不支持我們的域名。
所以如果說Node節(jié)點變更,需要做的事情就是允許我們動態(tài)地去把NodeIP寫到我們的集群配置當(dāng)中。
如果想要讓它有一個完整的生命周期,以下截圖是來自于一個叫Kubedb的operator,在下圖中可以看到,Redis這個地方提供了最主要的三個部分:
-
PVCs,PVCs就是做數(shù)據(jù)的持久化。
-
Services,Services就是做服務(wù)發(fā)現(xiàn)。
-
StatefulSets,StatefulSets其實就是k8s當(dāng)中的一種資源,而這資源它對于我們的有狀態(tài)應(yīng)用會更友好一些。
其實在整個內(nèi)容當(dāng)中還有一點沒有介紹的是什么呢?就是Redis背后的公司叫做Redis Labs,它提供了一種商業(yè)化的方案,就是Redis Enterprise一種解決方案。其實也是在k8s的解決方案之上的,也是用了Redis operator。他的方案和Kubedb這種方案基本類似,因為核心還都是用的StatefulSets,然后再加上自己的Controller,去完成這個事情。
五、總結(jié)
我們來看一下今天的總結(jié)。如果是我們單機使用的話,我們可以交給Docker或者其他支持cgroups或者namespace資源管理的工具。因為當(dāng)你使用了cgroups、namespace的話,你可以做到資源的隔離,可以避免網(wǎng)絡(luò)的端口的沖突之類的事情都可以實現(xiàn)。
而如果是像我在上文提到的小伙伴提到的那個問題:他打算使用主機的網(wǎng)絡(luò),僅僅是想讓Docker去做一個進程管理,而且你也不希望引入新的內(nèi)容。那么systemd或者systemd-nspawn都是可以考慮的,因為這也是容器化的解決方案。
如果是在復(fù)雜場景下的調(diào)度和管理的話,比如想要有很大的規(guī)模,并且想要有更靈活的調(diào)度和管理,我推薦你使用的是Kubernetes operator,比如說Kubedb,其實也是一種解決方案。如果你的場景沒有那么復(fù)雜,比較簡單,其實原生的Kubernetes StatefulSets稍微做一些調(diào)整和修改,也是可以滿足你的需求。
以上就是我今天分享的主要內(nèi)容了,感謝大家的參與。
> > > >
Q&A
Q1:請問Redis集群假如用三臺物理機做,每臺運行2個實例,如何保障每臺物理機的實例不是互為主從的?
A1 : 這個問題其實我們通常情況下大家也都會遇到。第一點如果你是使用物理機來做,并且你每臺機器上面運行兩個實例,三臺機器每個機器上面運行2個實例,一共有6個實例。這6個實例你是否可以保證它每個互相都不為主從的,其實是可以直接保證。
唯一的問題就是假如說這是一個集群,然后發(fā)生故障轉(zhuǎn)移,發(fā)生節(jié)點的主動切換,就非常有可能存在你的主從發(fā)生了變更。其實這個地方的話其實我更加建議,如果你發(fā)現(xiàn)了這種問題的話,你手動去做切換,因為物理機環(huán)境去做這個事情,目前我還沒看到有什么特別好的解決辦法。
Q2 : 請問k8s 中擴容時,如何增加新節(jié)點。擴容和分配slot的步驟如何自動化的進行?
A2 : 我們分開兩步來講,第一部分是增加新節(jié)點,增加新節(jié)點的話,剛才我其實在過程里頭已經(jīng)提到了,增加完新的節(jié)點之后,首先你一定要讓它能夠和集群去做通信,然而這個地方就是需要你去修改集群的配置文件,然后你需要他有一個NodeIP,因為之間是通過IP去做通信的,所以你需要去修改它的配置文件,把它的 NodeIP加進去,這樣子他才可以和集群當(dāng)中的其他節(jié)點去做通信,然而這個部分的話,我更推薦的是用operator去做。
Q3 : 請問如果不用Redis operator,也不使用分布式存儲,k8s如何部署cluster集群呢?
A3 : 不用Redis operator其實也是可以的,剛才我也介紹過,有兩種模式,一種模式就是用StatefulSets,這種模式的話相對來說會比較穩(wěn)妥一些。同時它的最主要的部分仍然是修改配置,你需要在你的Redis的容器鏡像當(dāng)中,你可以給它加一個init容器,然后可以在這個部分先給他做一次修改配置的操作,這是可以的。修改完配置的操作之后,再把它給拉起來,這樣子他才可以加入到集群當(dāng)中。
Q4 : 請問網(wǎng)絡(luò)延遲在不同網(wǎng)絡(luò)模型下有什么區(qū)別?
A4 : 如果我們直接使用物理機的網(wǎng)絡(luò),通常來講,我們不認為這種方式有延遲,就是主機網(wǎng)絡(luò)一般情況下我們會忽略掉它的延遲,但是如果你使用的是overlay的這種網(wǎng)絡(luò)模型的話,因為它是覆蓋層的網(wǎng)絡(luò),所以你在去做發(fā)包解包的時候,當(dāng)然是會有不同的資源的損耗,性能的損耗都是有的。
Q5 : 請問一般建議公司公用一個Redis集群,還是各系統(tǒng)獨立集群?
A5 : 這個問題當(dāng)然是建議各個系統(tǒng)獨立集群了,我們來舉一個最簡單的例子,比如說你在其中用到了list,我們都知道Redis就有一個ziplist的配置項,他其實跟你的存儲和你的性能是有關(guān)系的。如果你是公司的所有的東西都用同一個集群,那你修改了Redis集群的配置的話,很可能會影響到所有的服務(wù)。但如果你是每個系統(tǒng)獨立用一個Redis群的話,彼此之間互不影響,也不會出現(xiàn)某一個應(yīng)用不小心把集群給打掛了,然后造成連鎖反應(yīng)的情況。
Q6 : 請問Redis持久化,在生產(chǎn)中如何考慮呢?
A6 : 這部分東西我是這樣想的。如果你真的需要去做持久化,一方面Redis提供了兩種核心,一種是 RDB,另外一種是AOF,如果說你的數(shù)據(jù)很多的話,相應(yīng)你的RDB可能會變得很大。如果你是去做持久化,我通常建議就是兩個里頭去做一次權(quán)衡。因為通常來講,即使你是使用物理機的環(huán)境,我也建議你的存儲目錄可以放到一個獨立的盤里頭,或者說你可以去掛在一個分布式的存儲,但是前提是你需要保證它的性能,因為你不能因為它的寫入性能而拖累你的集群,所以更加推薦的就是你可以全都把它們打開,但是如果你數(shù)據(jù)其實沒那么重要,你可以你只開AOF。
Q7 : 請問生產(chǎn)級別的ceph可靠不?
A7 : 其實ceph的可靠性這個問題,很多人都討論過,就我個人而言,ceph的可靠性是有保證的。我這邊在用的ceph很多,并且存了很多比較核心的數(shù)據(jù),所以ceph的可靠性是ok的。
重點在于說你能不能搞得定他,而且有一家公司其實大家可能有所了解,叫做SUSE,就是一個Linux的一個發(fā)行版,這家公司其實提供了一個企業(yè)級的存儲解決方案,并且它的底層其實還是用的ceph,其實這也是正常的,只要有專人去搞這個事情,然后把它解決掉,我覺得ceph足夠穩(wěn)定的。
順便提一下,如果你使用的是k8s的話,現(xiàn)在有一個項目叫做rocket,它其實提供了一個ceph的operator,這種方案其實現(xiàn)在已經(jīng)算是相對來說比較很穩(wěn)定的了,推薦大家嘗試一下。
Q8: 請問申請內(nèi)存、限制內(nèi)存、還有本身Redis內(nèi)存怎么配置比較好?
A8: 這里需要考慮幾個問題,首先我們先說Redis本身的內(nèi)存,其實要看你的實際業(yè)務(wù)的使用場景,或者說你業(yè)務(wù)的實際需求,你肯定不可能讓你的Redis的實例或者Redis集群的內(nèi)存都占滿。
如果是占滿的話,你就需要開啟lru去做驅(qū)逐之類的事情,這是一方面。另一方面就是申請內(nèi)存,其實我理解你這個地方要問的問題應(yīng)該是指,在k8s環(huán)境下面,在k8s下面一個是request的,一個是limit,limit肯定是你的可用限制的內(nèi)存,限制內(nèi)存你一定需要考慮到Redis本身還要用到的一些內(nèi)存。
文章名稱:十多款Redis容器化技術(shù)選型對比,K8S并非萬金油
網(wǎng)站網(wǎng)址:http://www.dlmjj.cn/article/cdshjgh.html


咨詢
建站咨詢
