日本综合一区二区|亚洲中文天堂综合|日韩欧美自拍一区|男女精品天堂一区|欧美自拍第6页亚洲成人精品一区|亚洲黄色天堂一区二区成人|超碰91偷拍第一页|日韩av夜夜嗨中文字幕|久久蜜综合视频官网|精美人妻一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務時間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營銷解決方案
CentOS7.0安裝配置Redis集群

1.Redis集群簡介

redis集群在啟動的時候就自動在多個節(jié)點間分好片。同時提供了分片之間的可用性:當一部分redis節(jié)點故障或網(wǎng)絡中斷,集群也能繼續(xù)工作。但是,當大面積的節(jié)點故障或網(wǎng)絡中斷(比如大部分的主節(jié)點都不可用了),集群就不能使用。
所以,從實用性的角度,Redis集群提供以下功能:
● 自動把數(shù)據(jù)切分到多個redis節(jié)點中
● 當一部分節(jié)點掛了或不可達,集群依然能繼續(xù)工作

成都創(chuàng)新互聯(lián)于2013年創(chuàng)立,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務公司,擁有項目網(wǎng)站制作、成都網(wǎng)站制作網(wǎng)站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元渾南做網(wǎng)站,已為上家服務,為渾南各地企業(yè)和個人服務,聯(lián)系電話:18980820575

2.redis集群數(shù)據(jù)分片

Redis集群不是使用一致性哈希,而是使用哈希槽。整個redis集群有16384個哈希槽,決定一個key應該分配到那個槽的算法是:計算該key的CRC16結(jié)果再模16834。
集群中的每個節(jié)點負責一部分哈希槽,比如集群中有3個節(jié)點,則:
● 節(jié)點A存儲的哈希槽范圍是:0 – 5500
● 節(jié)點B存儲的哈希槽范圍是:5501 – 11000
● 節(jié)點C存儲的哈希槽范圍是:11001 – 16384
這樣的分布方式方便節(jié)點的添加和刪除。比如,需要新增一個節(jié)點D,只需要把A、B、C中的部分哈希槽數(shù)據(jù)移到D節(jié)點。同樣,如果希望在集群中刪除A節(jié)點,只需要把A節(jié)點的哈希槽的數(shù)據(jù)移到B和C節(jié)點,當A節(jié)點的數(shù)據(jù)全部被移走后,A節(jié)點就可以完全從集群中刪除。
因為把哈希槽從一個節(jié)點移到另一個節(jié)點是不需要停機的,所以,增加或刪除節(jié)點,或更改節(jié)點上的哈希槽,也是不需要停機的。
如果多個key都屬于一個哈希槽,集群支持通過一個命令(或事務, 或lua腳本)同時操作這些key。通過“哈希標簽”的概念,用戶可以讓多個key分配到同一個哈希槽。哈希標簽在集群詳細文檔中有描述,這里做個簡單介紹:如果key含有大括號”{}”,則只有大括號中的字符串會參與哈希,比如”this{foo}”和”another{foo}”這2個key會分配到同一個哈希槽,所以可以在一個命令中同時操作他們。

3.redis的主從模式

為了保證在部分節(jié)點故障或網(wǎng)絡不通時集群依然能正常工作,集群使用了主從模型,每個哈希槽有一(主節(jié)點)到N個副本(N-1個從節(jié)點)。在我們剛才的集群例子中,有A,B,C三個節(jié)點,如果B節(jié)點故障集群就不能正常工作了,因為B節(jié)點中的哈希槽數(shù)據(jù)沒法操作。但是,如果我們給每一個節(jié)點都增加一個從節(jié)點,就變成了:A,B,C三個節(jié)點是主節(jié)點,A1, B1, C1 分別是他們的從節(jié)點,當B節(jié)點宕機時,我們的集群也能正常運作。B1節(jié)點是B節(jié)點的副本,如果B節(jié)點故障,集群會提升B1為主節(jié)點,從而讓集群繼續(xù)正常工作。但是,如果B和B1同時故障,集群就不能繼續(xù)工作了。
Redis集群的一致性保證
Redis集群不能保證強一致性。一些已經(jīng)向客戶端確認寫成功的操作,會在某些不確定的情況下丟失。
產(chǎn)生寫操作丟失的第一個原因,是因為主從節(jié)點之間使用了異步的方式來同步數(shù)據(jù)。
一個寫操作是這樣一個流程:
1)客戶端向主節(jié)點B發(fā)起寫的操作2)主節(jié)點B回應客戶端寫操作成功3)主節(jié)點B向它的從節(jié)點B1,B2,B3同步該寫操作
從上面的流程可以看出來,主節(jié)點B并沒有等從節(jié)點B1,B2,B3寫完之后再回復客戶端這次操作的結(jié)果。所以,如果主節(jié)點B在通知客戶端寫操作成功之后,但同步給從節(jié)點之前,主節(jié)點B故障了,其中一個沒有收到該寫操作的從節(jié)點會晉升成主節(jié)點,該寫操作就這樣永遠丟失了。
就像傳統(tǒng)的數(shù)據(jù)庫,在不涉及到分布式的情況下,它每秒寫回磁盤。為了提高一致性,可以在寫盤完成之后再回復客戶端,但這樣就要損失性能。這種方式就等于Redis集群使用同步復制的方式。
基本上,在性能和一致性之間,需要一個權(quán)衡。

4. 創(chuàng)建和使用redis集群

4.1.下載redis文件

[root@apollo dtadmin]# wget http://download.redis.io/releases/redis-3.2.9.tar.gz

4.2.解壓redis到/opt/目錄下

[root@apollo dtadmin]# tar -zxvf redis-3.2.9.tar.gz -C /opt/

4.3.編譯redis

#進入目錄/opt/redis-3.2.9
[root@apollo dtadmin]# cd /opt/redis-3.2.9/
[root@artemis redis-3.2.9]# make && make install #如果報錯,說明缺少依賴包,要先執(zhí)行以下命令
[root@artemis redis-cluster]# yum -y install ruby ruby-devel rubygems rpm-build gcc

4.4.配置redis集群

4.4.1.環(huán)境準備

# hostname ip software port notes
1 apollo.dt.com 192.168.56.181 redis 7000
7001
7002
 
2 artemis.dt.com 192.168.56.182 redis 7003
7004
7005
 
3 uranus.dt.com 192.168.56.183 redis 7006
7007
7008
 

4.4.2 在/opt/redis-3.2.9/目錄下創(chuàng)建目錄redis-cluster

#創(chuàng)建目錄redis-cluster
[root@apollo redis-3.2.9]# mkdir redis-cluster
#在redis-cluster目錄下創(chuàng)建三個子目錄
[root@apollo redis-cluster]# mkdir -p 7000 7001 7002
#把/opt/redis-3.2.9目錄下的redis.conf分別拷貝一份到7000, 7001和7002目錄下:
[root@apollo redis-cluster]# cp /opt/redis-3.2.9/redis.conf /opt/redis-3.2.9/redis-cluster/7000
[root@apollo redis-cluster]# cp /opt/redis-3.2.9/redis.conf /opt/redis-3.2.9/redis-cluster/7001
[root@apollo redis-cluster]# cp /opt/redis-3.2.9/redis.conf /opt/redis-3.2.9/redis-cluster/7002

4.4.3.配置子目錄/opt/redis-3.2.9/redis-cluster/目錄下三個子目錄7000, 7001和7002下的redis.conf文件,主要修改內(nèi)容為:

[root@apollo redis-cluster]# vim 7000/redis.conf 
[root@apollo redis-cluster]# vim 7001/redis.conf 
[root@apollo redis-cluster]# vim 7002/redis.conf 
###############配置修改項########################
bind 192.168.56.181 #修改為本機IP
port 7000 #要根據(jù)所在的子目錄下配置
daemonize yes
pidfile /var/run/redis_7000.pid  #要根據(jù)所在的子目錄下配置
logfile "/var/log/redis-7000.log" #要根據(jù)所在的子目錄下配置
appendonly yes
cluster-enabled yes
cluster-config-file nodes-7000.conf #要根據(jù)所在的子目錄下配置
cluster-node-timeout 15000

4.4.4.以相同方法配置其它兩臺務器

不同的是要用7003,7004,7005,7006,7007,7008端口號并創(chuàng)建相應的子目錄。

5.啟動redis集群

5.1.在第一臺服務器上啟動redis

[root@apollo redis-cluster]# redis-server 7001/redis.conf 
[root@apollo redis-cluster]# redis-server 7002/redis.conf 
[root@apollo redis-cluster]# redis-server 7003/redis.conf 

5.2.在第二臺機器啟動redis

[root@artemis redis-cluster]# redis-server 7003/redis.conf 
[root@artemis redis-cluster]# redis-server 7004/redis.conf 
[root@artemis redis-cluster]# redis-server 7005/redis.conf 

5.3 在第三臺服務器上啟動redis

[root@uranus redis-cluster]# redis-server 7006/redis.conf 
[root@uranus redis-cluster]# redis-server 7007/redis.conf 
[root@uranus redis-cluster]# redis-server 7008/redis.conf 

6.驗證各個服務器上的redis啟動狀態(tài)

6.1.第一臺服務器

[root@apollo redis-cluster]# ps -ef | grep redis
root     18313     1  0 16:44 ?        00:00:00 redis-server 192.168.56.181:7001 [cluster]
root     18325     1  0 16:44 ?        00:00:00 redis-server 192.168.56.181:7002 [cluster]
root     18371     1  0 16:45 ?        00:00:00 redis-server 192.168.56.181:7000 [cluster]
root     18449  2564  0 16:46 pts/0    00:00:00 grep --color=auto redis

[root@apollo redis-cluster]# netstat -tnlp | grep redis
tcp        0      0 192.168.56.181:7001     0.0.0.0:*               LISTEN      18313/redis-server  
tcp        0      0 192.168.56.181:7002     0.0.0.0:*               LISTEN      18325/redis-server  
tcp        0      0 192.168.56.181:17000    0.0.0.0:*               LISTEN      18371/redis-server  
tcp        0      0 192.168.56.181:17001    0.0.0.0:*               LISTEN      18313/redis-server  
tcp        0      0 192.168.56.181:17002    0.0.0.0:*               LISTEN      18325/redis-server  
tcp        0      0 192.168.56.181:7000     0.0.0.0:*               LISTEN      18371/redis-server  

6.2.第二臺服務器

[root@artemis redis-cluster]# ps -ef | grep redis
root      5351     1  0 16:45 ?        00:00:00 redis-server 192.168.56.182:7003 [cluster]
root      5355     1  0 16:45 ?        00:00:00 redis-server 192.168.56.182:7004 [cluster]
root      5359     1  0 16:46 ?        00:00:00 redis-server 192.168.56.182:7005 [cluster]

[root@artemis redis-cluster]# netstat -tnlp | grep redis
tcp        0      0 192.168.56.182:7003     0.0.0.0:*               LISTEN      5351/redis-server 1 
tcp        0      0 192.168.56.182:7004     0.0.0.0:*               LISTEN      5355/redis-server 1 
tcp        0      0 192.168.56.182:7005     0.0.0.0:*               LISTEN      5359/redis-server 1 
tcp        0      0 192.168.56.182:17003    0.0.0.0:*               LISTEN      5351/redis-server 1 
tcp        0      0 192.168.56.182:17004    0.0.0.0:*               LISTEN      5355/redis-server 1 
tcp        0      0 192.168.56.182:17005    0.0.0.0:*               LISTEN      5359/redis-server 1 

6.3.第三臺服務器

[root@uranus redis-cluster]# ps -ef | grep redis
root     21138     1  0 16:46 ?        00:00:00 redis-server 192.168.56.183:7006 [cluster]
root     21156     1  0 16:46 ?        00:00:00 redis-server 192.168.56.183:7008 [cluster]
root     21387     1  0 16:50 ?        00:00:00 redis-server 192.168.56.183:7007 [cluster]
root     21394  9287  0 16:50 pts/0    00:00:00 grep --color=auto redis

[root@uranus redis-cluster]# netstat -tnlp | grep redis
tcp        0      0 192.168.56.183:7006     0.0.0.0:*               LISTEN      2959/redis-server 1 
tcp        0      0 192.168.56.183:7007     0.0.0.0:*               LISTEN      2971/redis-server 1 
tcp        0      0 192.168.56.183:7008     0.0.0.0:*               LISTEN      2982/redis-server 1 
tcp        0      0 192.168.56.183:17006    0.0.0.0:*               LISTEN      2959/redis-server 1 
tcp        0      0 192.168.56.183:17007    0.0.0.0:*               LISTEN      2971/redis-server 1 
tcp        0      0 192.168.56.183:17008    0.0.0.0:*               LISTEN      2982/redis-server 1 

7.創(chuàng)建redis集群

[root@apollo src]# ./redis-trib.rb create --replicas 1 192.168.56.181:7000 192.168.56.181:7001 192.168.56.181:7002 192.168.56.182:7003 192.168.56.182:7004 192.168.56.182:7005 192.168.56.183:7006 192.168.56.183:7007 192.168.56.183:7008 >>> Creating cluster >>> Performing hash slots allocation on 9 nodes... Using 4 masters: 192.168.56.181:7000 192.168.56.182:7003 192.168.56.183:7006 192.168.56.181:7001 Adding replica 192.168.56.182:7004 to 192.168.56.181:7000 Adding replica 192.168.56.183:7007 to 192.168.56.182:7003 Adding replica 192.168.56.181:7002 to 192.168.56.183:7006 Adding replica 192.168.56.182:7005 to 192.168.56.181:7001 Adding replica 192.168.56.183:7008 to 192.168.56.181:7000 M: 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 192.168.56.181:7000 slots:0-4095 (4096 slots) master M: 0d0b4528f32db0111db2a78b8451567086b66d97 192.168.56.181:7001 slots:12288-16383 (4096 slots) master S: e7b8ba7a800683ba017401bde9a72bb34ad252d8 192.168.56.181:7002 replicates 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa M: 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce 192.168.56.182:7003 slots:4096-8191 (4096 slots) master S: 13863d63aa323fd58e7ceeba1ccc91b6304d0539 192.168.56.182:7004 replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 S: da3556753efe388a64fafc259338ea420a795163 192.168.56.182:7005 replicates 0d0b4528f32db0111db2a78b8451567086b66d97 M: 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa 192.168.56.183:7006 slots:8192-12287 (4096 slots) master S: ab90ee3ff9834a88416da311011e9bdfaa9a831f 192.168.56.183:7007 replicates 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce S: b0dda91a2527f71fe555cdd28fa8be4b571a4bed 192.168.56.183:7008 replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 Can I set the above configuration? (type 'yes' to accept): yes >>> Nodes configuration updated >>> Assign a different config epoch to each node >>> Sending CLUSTER MEET messages to join the cluster Waiting for the cluster to join........ >>> Performing Cluster Check (using node 192.168.56.181:7000) M: 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 192.168.56.181:7000 slots:0-4095 (4096 slots) master 2 additional replica(s) S: e7b8ba7a800683ba017401bde9a72bb34ad252d8 192.168.56.181:7002 slots: (0 slots) slave replicates 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa S: ab90ee3ff9834a88416da311011e9bdfaa9a831f 192.168.56.183:7007 slots: (0 slots) slave replicates 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce M: 4b34dcec53e46ad990b0e6bc36d5cd7b7f3f4cce 192.168.56.182:7003 slots:4096-8191 (4096 slots) master 1 additional replica(s) M: 0d0b4528f32db0111db2a78b8451567086b66d97 192.168.56.181:7001 slots:12288-16383 (4096 slots) master 1 additional replica(s) M: 3b9056e1c92ee9b94870a4100b89f6dc474ec1fa 192.168.56.183:7006 slots:8192-12287 (4096 slots) master 1 additional replica(s) S: b0dda91a2527f71fe555cdd28fa8be4b571a4bed 192.168.56.183:7008 slots: (0 slots) slave replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 S: 13863d63aa323fd58e7ceeba1ccc91b6304d0539 192.168.56.182:7004 slots: (0 slots) slave replicates 4d007a1e8efdc43ca4ec3db77029709b4e8413d0 S: da3556753efe388a64fafc259338ea420a795163 192.168.56.182:7005 slots: (0 slots) slave replicates 0d0b4528f32db0111db2a78b8451567086b66d97 [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered.

分享題目:CentOS7.0安裝配置Redis集群
文章源于:http://www.dlmjj.cn/article/dhigdoi.html