日韩无码专区无码一级三级片|91人人爱网站中日韩无码电影|厨房大战丰满熟妇|AV高清无码在线免费观看|另类AV日韩少妇熟女|中文日本大黄一级黄色片|色情在线视频免费|亚洲成人特黄a片|黄片wwwav色图欧美|欧亚乱色一区二区三区

RELATEED CONSULTING
相關(guān)咨詢
選擇下列產(chǎn)品馬上在線溝通
服務(wù)時(shí)間:8:30-17:00
你可能遇到了下面的問題
關(guān)閉右側(cè)工具欄

新聞中心

這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
Web架構(gòu)之路:MongoDB集群及高可用實(shí)踐

 MongoDB集群有副本集及主從復(fù)制兩種模式,不過主從模式在MongoDB 3.6已經(jīng)徹底廢棄,今天主要探討副本集的搭建和使用,以及分片。

副本集介紹

副本集(Replica Set)即副本的集合,在MongoDB中通過先定義一個(gè)副本集合,然后將多個(gè)節(jié)點(diǎn)(副本)加入到這個(gè)集合中。簡(jiǎn)單來說就是集群中包含了多份數(shù)據(jù),保證主節(jié)點(diǎn)掛掉,備節(jié)點(diǎn)能夠繼續(xù)提供數(shù)據(jù)服務(wù),實(shí)現(xiàn)MongoDB的數(shù)據(jù)備份及高可用。

副本集具有以下特征:

  • N 個(gè)節(jié)點(diǎn)的集群
  • 任何節(jié)點(diǎn)可作為主節(jié)點(diǎn)
  • 所有寫入操作都在主節(jié)點(diǎn)上
  • 自動(dòng)故障轉(zhuǎn)移
  • 自動(dòng)恢復(fù)

副本集搭建

條件有限,我們?cè)趩螜C(jī)上,通過三個(gè)不同的MongoD線程來搭副本集。

主節(jié)點(diǎn)配置如下:

 
 
 
 
  1. # 指定數(shù)據(jù)庫(kù)路徑
  2. dbpath=/usr/local/mongodb/data/db
  3. # 使用追加的方式寫日志
  4. logpath=/usr/local/mongodb/log/mongodb.log
  5. # 使用追加的方式寫日志
  6. logappend = true
  7. # 綁定服務(wù)IP
  8. bind_ip=127.0.0.1
  9. # 服務(wù)器端口
  10. port = 27017
  11. # 以守護(hù)進(jìn)程的方式運(yùn)行MongoDB,創(chuàng)建服務(wù)器進(jìn)程
  12. fork = true
  13. # PID File 的完整路徑
  14. pidfilepath=/usr/local/mongodb/var/mongod.pid
  15. # 不啟用驗(yàn)證
  16. noauth=true
  17. # 最大同時(shí)連接數(shù),默認(rèn)2000
  18. maxConns=2000
  19. # 同步復(fù)制的日志大小設(shè)置,單位MB
  20. oplogSize=10
  21. # 副本集名稱
  22. replSet=rs0

副本節(jié)點(diǎn)的配置和主節(jié)點(diǎn)的基本一致,需要修改一下數(shù)據(jù)庫(kù)/日志/PID路徑和端口號(hào),副本集名稱需一致:

 
 
 
 
  1. # 指定數(shù)據(jù)庫(kù)路徑
  2. dbpath=/usr/local/mongodb/node/2/data/db
  3. # 使用追加的方式寫日志
  4. logpath=/usr/local/mongodb/node/2/log/mongodb.log
  5. # 使用追加的方式寫日志
  6. logappend = true
  7. # 綁定服務(wù)IP
  8. bind_ip=127.0.0.1
  9. # 服務(wù)器端口
  10. port = 27018
  11. # 以守護(hù)進(jìn)程的方式運(yùn)行MongoDB,創(chuàng)建服務(wù)器進(jìn)程
  12. fork = true
  13. # PID File 的完整路徑
  14. pidfilepath=/usr/local/mongodb/var/mongod2.pid
  15. # 不啟用驗(yàn)證
  16. noauth=true
  17. # 最大同時(shí)連接數(shù),默認(rèn)2000
  18. maxConns=2000
  19. # 副本集
  20. replSet=rs0

依次啟動(dòng)三個(gè)mongod進(jìn)程:

 
 
 
 
  1. gitlib@devops:/usr/local/mongodb$ ps -aux | grep mongod
  2. root 14293 0.8 2.3 1588812 92700 ? Sl 08:06 0:01 bin/mongod -f mongod.conf
  3. root 14652 3.5 2.2 1583180 89364 ? Sl 08:08 0:00 bin/mongod -f mongod2.conf
  4. root 14723 6.4 2.2 1583180 89172 ? Sl 08:08 0:00 bin/mongod -f mongod3.conf

在主節(jié)點(diǎn)中,先使用rs.initiate()方法進(jìn)行副本集初始化操作,再使用rs.add()方法來添加副本集的成員:

 
 
 
 
  1. > rs.initiate()
  2. {
  3.     "info2" : "no configuration specified. Using a default configuration for the set",
  4.     "me" : "127.0.0.1:27017",
  5.     "ok" : 1,
  6.     "$clusterTime" : {
  7.         "clusterTime" : Timestamp(1569457173, 1),
  8.         "signature" : {
  9.             "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  10.             "keyId" : NumberLong(0)
  11.         }
  12.     },
  13.     "operationTime" : Timestamp(1569457173, 1)
  14. }
  15. rs0:OTHER> rs.add('127.0.0.1:27018');
  16. {
  17.     "ok" : 1,
  18.     "$clusterTime" : {
  19.         "clusterTime" : Timestamp(1569457214, 2),
  20.         "signature" : {
  21.             "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  22.             "keyId" : NumberLong(0)
  23.         }
  24.     },
  25.     "operationTime" : Timestamp(1569457214, 2)
  26. }
  27. rs0:PRIMARY> rs.add('127.0.0.1:27019');
  28. {
  29.     "ok" : 1,
  30.     "$clusterTime" : {
  31.         "clusterTime" : Timestamp(1569457219, 1),
  32.         "signature" : {
  33.             "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  34.             "keyId" : NumberLong(0)
  35.         }
  36.     },
  37.     "operationTime" : Timestamp(1569457219, 1)
  38. }
  39. rs0:PRIMARY>

到此,MongoDB副本集部署完成,我們可以通過rs.status()命令查看副本集狀態(tài)。

 
 
 
 
  1. gitlib@devops:~$ mongo 127.0.0.1:27018
  2. rs0:SECONDARY> rs.status()
  3. {
  4.     "set" : "rs0",
  5.     "date" : ISODate("2019-09-26T12:09:48.818Z"),
  6.     "myState" : 2,
  7.     "term" : NumberLong(1),
  8.     "syncingTo" : "127.0.0.1:27017",
  9.     "syncSourceHost" : "127.0.0.1:27017",
  10.     "syncSourceId" : 0,
  11.     "heartbeatIntervalMillis" : NumberLong(2000),
  12.     "optimes" : {
  13.         "lastCommittedOpTime" : {
  14.             "ts" : Timestamp(1569499786, 1),
  15.             "t" : NumberLong(1)
  16.         },
  17.         "lastCommittedWallTime" : ISODate("2019-09-26T12:09:46.038Z"),
  18.         "readConcernMajorityOpTime" : {
  19.             "ts" : Timestamp(1569499786, 1),
  20.             "t" : NumberLong(1)
  21.         },
  22.         "readConcernMajorityWallTime" : ISODate("2019-09-26T12:09:46.038Z"),
  23.         "appliedOpTime" : {
  24.             "ts" : Timestamp(1569499786, 1),
  25.             "t" : NumberLong(1)
  26.         },
  27.         "durableOpTime" : {
  28.             "ts" : Timestamp(1569499786, 1),
  29.             "t" : NumberLong(1)
  30.         },
  31.         "lastAppliedWallTime" : ISODate("2019-09-26T12:09:46.038Z"),
  32.         "lastDurableWallTime" : ISODate("2019-09-26T12:09:46.038Z")
  33.     },
  34.     "lastStableRecoveryTimestamp" : Timestamp(1569499726, 1),
  35.     "lastStableCheckpointTimestamp" : Timestamp(1569499726, 1),
  36.     "members" : [
  37.         {
  38.             "_id" : 0,
  39.             "name" : "127.0.0.1:27017",
  40.             "ip" : "127.0.0.1",
  41.             "health" : 1,
  42.             "state" : 1,
  43.             "stateStr" : "PRIMARY",
  44.             "uptime" : 42574,
  45.             "optime" : {
  46.                 "ts" : Timestamp(1569499786, 1),
  47.                 "t" : NumberLong(1)
  48.             },
  49.             "optimeDurable" : {
  50.                 "ts" : Timestamp(1569499786, 1),
  51.                 "t" : NumberLong(1)
  52.             },
  53.             "optimeDate" : ISODate("2019-09-26T12:09:46Z"),
  54.             "optimeDurableDate" : ISODate("2019-09-26T12:09:46Z"),
  55.             "lastHeartbeat" : ISODate("2019-09-26T12:09:47.119Z"),
  56.             "lastHeartbeatRecv" : ISODate("2019-09-26T12:09:47.667Z"),
  57.             "pingMs" : NumberLong(0),
  58.             "lastHeartbeatMessage" : "",
  59.             "syncingTo" : "",
  60.             "syncSourceHost" : "",
  61.             "syncSourceId" : -1,
  62.             "infoMessage" : "",
  63.             "electionTime" : Timestamp(1569457173, 2),
  64.             "electionDate" : ISODate("2019-09-26T00:19:33Z"),
  65.             "configVersion" : 3
  66.         },
  67.         {
  68.             "_id" : 1,
  69.             "name" : "127.0.0.1:27018",
  70.             "ip" : "127.0.0.1",
  71.             "health" : 1,
  72.             "state" : 2,
  73.             "stateStr" : "SECONDARY",
  74.             "uptime" : 43284,
  75.             "optime" : {
  76.                 "ts" : Timestamp(1569499786, 1),
  77.                 "t" : NumberLong(1)
  78.             },
  79.             "optimeDate" : ISODate("2019-09-26T12:09:46Z"),
  80.             "syncingTo" : "127.0.0.1:27017",
  81.             "syncSourceHost" : "127.0.0.1:27017",
  82.             "syncSourceId" : 0,
  83.             "infoMessage" : "",
  84.             "configVersion" : 3,
  85.             "self" : true,
  86.             "lastHeartbeatMessage" : ""
  87.         },
  88.         {
  89.             "_id" : 2,
  90.             "name" : "127.0.0.1:27019",
  91.             "ip" : "127.0.0.1",
  92.             "health" : 1,
  93.             "state" : 2,
  94.             "stateStr" : "SECONDARY",
  95.             "uptime" : 42569,
  96.             "optime" : {
  97.                 "ts" : Timestamp(1569499786, 1),
  98.                 "t" : NumberLong(1)
  99.             },
  100.             "optimeDurable" : {
  101.                 "ts" : Timestamp(1569499786, 1),
  102.                 "t" : NumberLong(1)
  103.             },
  104.             "optimeDate" : ISODate("2019-09-26T12:09:46Z"),
  105.             "optimeDurableDate" : ISODate("2019-09-26T12:09:46Z"),
  106.             "lastHeartbeat" : ISODate("2019-09-26T12:09:47.646Z"),
  107.             "lastHeartbeatRecv" : ISODate("2019-09-26T12:09:47.036Z"),
  108.             "pingMs" : NumberLong(0),
  109.             "lastHeartbeatMessage" : "",
  110.             "syncingTo" : "127.0.0.1:27018",
  111.             "syncSourceHost" : "127.0.0.1:27018",
  112.             "syncSourceId" : 1,
  113.             "infoMessage" : "",
  114.             "configVersion" : 3
  115.         }
  116.     ],
  117.     "ok" : 1,
  118.     "$clusterTime" : {
  119.         "clusterTime" : Timestamp(1569499786, 1),
  120.         "signature" : {
  121.             "hash" : BinData(0,"AAAAAAAAAAAAAAAAAAAAAAAAAAA="),
  122.             "keyId" : NumberLong(0)
  123.         }
  124.     },
  125.     "operationTime" : Timestamp(1569499786, 1)
  126. }

副本集高可用

集群中的各節(jié)點(diǎn)還會(huì)通過傳遞心跳信息來檢測(cè)各自的健康狀況。當(dāng)主節(jié)點(diǎn)故障時(shí),多個(gè)從節(jié)點(diǎn)會(huì)觸發(fā)一次 新的選舉操作,并選舉其中的一個(gè)成為新的主節(jié)點(diǎn)(通常誰(shuí)的優(yōu)先級(jí)更高,誰(shuí)就是新的主節(jié)點(diǎn)),心跳信息默認(rèn)每 2 秒傳遞一次。

客戶端連接到副本集后,不關(guān)心具體哪一臺(tái)機(jī)器是否掛掉。主服務(wù)器負(fù)責(zé)整個(gè)副本集的讀寫,副本集定期同步數(shù)據(jù)備份。一旦主節(jié)點(diǎn)掛掉,副本節(jié)點(diǎn)就會(huì)選舉一個(gè)新的主服務(wù)器。這一切對(duì)于應(yīng)用服務(wù)器不需要關(guān)心。

我們可以通過關(guān)閉主節(jié)點(diǎn),測(cè)試是否會(huì)選舉新的主節(jié)點(diǎn):

 
 
 
 
  1. gitlib@devops:~$ ps -aux | grep mongod
  2. root 14293 0.6 2.5 1888584 99504 ? Sl 08:06 4:39 bin/mongod -f mongod.conf
  3. root 14652 0.6 2.6 1923896 102200 ? Sl 08:08 4:59 bin/mongod -f mongod2.conf
  4. root 14723 0.6 2.5 1886124 98984 ? Sl 08:08 4:47 bin/mongod -f mongod3.conf
  5. gitlib@devops:~$ sudo kill -9 14293
  6. [sudo] password for zhoufei: 
  7. zhoufei@devops:~$ ps -aux | grep mongod
  8. root 14652 0.6 2.6 1932092 102200 ? Sl 08:08 4:59 bin/mongod -f mongod2.conf
  9. root 14723 0.6 2.5 1894320 99064 ? Sl 08:08 4:47 bin/mongod -f mongod3.conf

我們直接kill掉主節(jié)點(diǎn),進(jìn)入節(jié)點(diǎn)1,看一下當(dāng)前節(jié)點(diǎn)是否是主節(jié)點(diǎn):

 
 
 
 
  1. gitlib@devops:~$ mongo 127.0.0.1:27018
  2. rs0:SECONDARY> rs.isMaster()
  3. {
  4.     "hosts" : [
  5.         "127.0.0.1:27017",
  6.         "127.0.0.1:27018",
  7.         "127.0.0.1:27019"
  8.     ],
  9.     "setName" : "rs0",
  10.     "setVersion" : 3,
  11.     "ismaster" : false,
  12.     "secondary" : true,
  13.     "primary" : "127.0.0.1:27019",
  14.     "me" : "127.0.0.1:27018",
  15.     ...

可以看到當(dāng)主節(jié)點(diǎn)(127.0.0.1:27017)掛掉之后,主節(jié)點(diǎn)自動(dòng)切換到從節(jié)點(diǎn)2(127.0.0.1:27019)上。

副本集選舉機(jī)制

副本集中的從節(jié)點(diǎn)在主節(jié)點(diǎn)掛掉后通過心跳機(jī)制檢測(cè)到后,就會(huì)在集群內(nèi)發(fā)起主節(jié)點(diǎn)的選舉機(jī)制,自動(dòng)選舉出一位新的主服務(wù)器。

副本集包括三種節(jié)點(diǎn):主節(jié)點(diǎn)、從節(jié)點(diǎn)、仲裁節(jié)點(diǎn)。

  • 主節(jié)點(diǎn)負(fù)責(zé)處理客戶端請(qǐng)求,讀、寫數(shù)據(jù), 記錄在其上所有操作的oplog;
  • 從節(jié)點(diǎn)定期輪詢主節(jié)點(diǎn)獲取這些操作,然后對(duì)自己的數(shù)據(jù)副本執(zhí)行這些操作,從而保證從節(jié)點(diǎn)的數(shù)據(jù)與主節(jié)點(diǎn)一致。默認(rèn)情況下,從節(jié)點(diǎn)不支持外部讀取,但可以設(shè)置,副本集的機(jī)制在于主節(jié)點(diǎn)出現(xiàn)故障的時(shí)候,余下的節(jié)點(diǎn)會(huì)選舉出一個(gè)新的主節(jié)點(diǎn),從而保證系統(tǒng)可以正常運(yùn)行。
  • 仲裁節(jié)點(diǎn)不復(fù)制數(shù)據(jù),僅參與投票。由于它沒有訪問的壓力,比較空閑,因此不容易出故障。由于副本集出現(xiàn)故障的時(shí)候,存活的節(jié)點(diǎn)必須大于副本集節(jié)點(diǎn)總數(shù)的一半,否則無(wú)法選舉主節(jié)點(diǎn),或者主節(jié)點(diǎn)會(huì)自動(dòng)降級(jí)為從節(jié)點(diǎn),整個(gè)副本集變?yōu)橹蛔x。因此,增加一個(gè)不容易出故障的仲裁節(jié)點(diǎn),可以增加有效選票,降低整個(gè)副本集不可用的風(fēng)險(xiǎn)。仲裁節(jié)點(diǎn)可多于一個(gè)。也就是說只參與投票,不接收復(fù)制的數(shù)據(jù),也不能成為活躍節(jié)點(diǎn)。

官方推薦MongoDB副本節(jié)點(diǎn)最少為3臺(tái), 建議副本集成員為奇數(shù),最多12個(gè)副本節(jié)點(diǎn),最多7個(gè)節(jié)點(diǎn)參與選舉。限制副本節(jié)點(diǎn)的數(shù)量,主要是因?yàn)橐粋€(gè)集群中過多的副本節(jié)點(diǎn),增加了復(fù)制的成本,反而拖累了集群的整體性能。 太多的副本節(jié)點(diǎn)參與選舉,也會(huì)增加選舉的時(shí)間。而官方建議奇數(shù)的節(jié)點(diǎn),是為了避免腦裂 的發(fā)生。

選舉過程

副本集的選舉過程大致如下:

得到每個(gè)服務(wù)器節(jié)點(diǎn)的最后操作時(shí)間戳。每個(gè) mongodb都有oplog機(jī)制會(huì)記錄本機(jī)的操作,方便和主服務(wù)器進(jìn)行對(duì)比數(shù)據(jù)是否同步還可以用于錯(cuò)誤恢復(fù)。

如果集群中大部分服務(wù)器down機(jī)了,保留活著的節(jié)點(diǎn)都為secondary狀態(tài)并停止,不選舉了。

如果集群中選舉出來的主節(jié)點(diǎn)或者所有從節(jié)點(diǎn)最后一次同步時(shí)間看起來很舊了,停止選舉等待人來操作。

如果上面都沒有問題就選擇最后操作時(shí)間戳最新(保證數(shù)據(jù)是最新的)的服務(wù)器節(jié)點(diǎn)作為主節(jié)點(diǎn)。

MongoDB 同步延遲問題

在MongoDB中,所有寫操作都會(huì)產(chǎn)生 oplog,oplog 是每修改一條數(shù)據(jù)都會(huì)生成一條,如果你采用一個(gè)批量update命令更新了 N 多條數(shù)據(jù),那么oplog 會(huì)有很多條,而不是一條。所以同步延遲就是寫操作在主節(jié)點(diǎn)上執(zhí)行完后,從節(jié)點(diǎn)還沒有把 oplog 拿過來再執(zhí)行一次。而這個(gè)寫操作的量越大,主節(jié)點(diǎn)與從節(jié)點(diǎn)的差別也就越大,同步延遲也就越大了。

分片

當(dāng)MongoDB存儲(chǔ)海量的數(shù)據(jù)時(shí),一臺(tái)機(jī)器可能不足以存儲(chǔ)數(shù)據(jù),也可能不足以提供可接受的讀寫吞吐量。這時(shí)我們就可以通過在多臺(tái)機(jī)器上分割數(shù)據(jù),使得數(shù)據(jù)庫(kù)系統(tǒng)能存儲(chǔ)和處理更多的數(shù)據(jù)。

分片集群結(jié)構(gòu)分布:

三個(gè)主要組件:

  • Shard:數(shù)據(jù)存儲(chǔ)位置,以chunk為單位存數(shù)據(jù),實(shí)際生產(chǎn)環(huán)境中一個(gè)shard server角色可由幾臺(tái)機(jī)器組個(gè)一個(gè)replica set承擔(dān),防止主機(jī)單點(diǎn)故障;
  • Config Server:mongod實(shí)例,存儲(chǔ)了整個(gè)ClusterMetadata,其中包括 chunk信息,默認(rèn)需要配置3個(gè)Config Server節(jié)點(diǎn);
  • Query Routers:(Mongos) 前端路由,客戶端由此接入,且讓整個(gè)集群看上去像單一數(shù)據(jù)庫(kù),前端應(yīng)用可以透明使用。

Mongos本身并不持久化數(shù)據(jù),Sharded Cluster所有的元數(shù)據(jù)都會(huì)存儲(chǔ)到Config Server,而用戶的數(shù)據(jù)會(huì)議分散存儲(chǔ)到各個(gè)shard。Mongos啟動(dòng)后,會(huì)從配置服務(wù)器加載元數(shù)據(jù),開始提供服務(wù),將用戶的請(qǐng)求正確路由到對(duì)應(yīng)的碎片。

Mongos的路由功能:

  • 當(dāng)數(shù)據(jù)寫入時(shí),MongoDB Cluster根據(jù)分片鍵設(shè)計(jì)寫入數(shù)據(jù)。
  • 當(dāng)外部語(yǔ)句發(fā)起數(shù)據(jù)查詢時(shí),MongoDB根據(jù)數(shù)據(jù)分布自動(dòng)路由至指定節(jié)點(diǎn)返回?cái)?shù)據(jù)。

分片部署

條件有限,我們還是在單機(jī)上,用不同MongoDB線程來部署分片。

分片服務(wù)器

Shard Server和普通Mongod程序一樣,不同的是需要在配置文件中添加shardsvr=true標(biāo)記為Shard Server,配置參考如下:

 
 
 
 
  1. # 指定數(shù)據(jù)庫(kù)路徑
  2. dbpath=/usr/local/mongodb/share/1/data/db
  3. # 使用追加的方式寫日志
  4. logpath=/usr/local/mongodb/share/1/log/mongodb.log
  5. # 使用追加的方式寫日志
  6. logappend = true
  7. # 綁定服務(wù)IP
  8. bind_ip=127.0.0.1
  9. # 服務(wù)器端口
  10. port = 27020
  11. # 以守護(hù)進(jìn)程的方式運(yùn)行MongoDB,創(chuàng)建服務(wù)器進(jìn)程
  12. fork = true
  13. # PID File 的完整路徑
  14. pidfilepath=/usr/local/mongodb/var/mongod27020.pid
  15. # 不啟用驗(yàn)證
  16. noauth=true
  17. # 最大同時(shí)連接數(shù),默認(rèn)2000
  18. maxConns=2000
  19. # 同步復(fù)制的日志大小設(shè)置,單位MB
  20. oplogSize=10
  21. # 設(shè)置為shared server
  22. shardsvr=true

以上配置復(fù)制4份,修改一下數(shù)據(jù)庫(kù)路徑/日志路徑/服務(wù)器IP和端口/PID路徑,啟動(dòng)4個(gè)Shard Server:

 
 
 
 
  1. sudo bin/mongod -f shard1.conf
  2. sudo bin/mongod -f shard2.conf
  3. sudo bin/mongod -f shard3.conf
  4. sudo bin/mongod -f shard4.conf

配置服務(wù)器

4.0版本的MongoDB中配置服務(wù)器(Config Server)需要設(shè)置副本集,同時(shí)設(shè)置configsvr=true,配置參考如下:

 
 
 
 
  1. # 指定數(shù)據(jù)庫(kù)路徑
  2. dbpath=/usr/local/mongodb/share/5/data/db
  3. # 使用追加的方式寫日志
  4. logpath=/usr/local/mongodb/share/5/log/mongodb.log
  5. # 使用追加的方式寫日志
  6. logappend = true
  7. # 綁定服務(wù)IP
  8. bind_ip=127.0.0.1
  9. # 服務(wù)器端口
  10. port = 27100
  11. # 以守護(hù)進(jìn)程的方式運(yùn)行MongoDB,創(chuàng)建服務(wù)器進(jìn)程
  12. fork = true
  13. # PID File 的完整路徑
  14. pidfilepath=/usr/local/mongodb/var/mongod27100.pid
  15. # 不啟用驗(yàn)證
  16. noauth=true
  17. # 最大同時(shí)連接數(shù),默認(rèn)2000
  18. maxConns=2000
  19. # 同步復(fù)制的日志大小設(shè)置,單位MB
  20. oplogSize=10
  21. # 配置為config server
  22. configsvr=true
  23. # 副本集名稱
  24. replSet=rs0

啟動(dòng)Config Server,并初始化副本集:

 
 
 
 
  1. sudo bin/mongod -f shard-config.conf
  2. mongo 127.0.0.1:27100
  3. > rs.initiaze()

新版本MongoDB建議設(shè)置多個(gè)Config Server,采用副本集形式設(shè)置集群,為了搭建方便,這里我們只采用單個(gè)Config Server。

路由服務(wù)器

Router Server不存放數(shù)據(jù),配置參考如下:

 
 
 
 
  1. # 使用追加的方式寫日志
  2. logpath=/usr/local/mongodb/share/6/log/mongodb.log
  3. # 使用追加的方式寫日志
  4. logappend = true
  5. # 綁定服務(wù)IP
  6. bind_ip=127.0.0.1
  7. # 服務(wù)器端口
  8. port = 4000
  9. # 以守護(hù)進(jìn)程的方式運(yùn)行MongoDB,創(chuàng)建服務(wù)器進(jìn)程
  10. fork = true
  11. # PID File 的完整路徑
  12. pidfilepath=/usr/local/mongodb/var/mongod4000.pid
  13. # 設(shè)置監(jiān)聽的config服務(wù)器
  14. configdb=rs0/127.0.0.1:27100

啟動(dòng)Router Server,路由服務(wù)器是由mongos命令啟動(dòng),與分片服務(wù)器及配置服務(wù)器不同。

 
 
 
 
  1. sudo bin/mongos -f shard-router.conf

啟動(dòng)后,需要通過sh.addShard()命令添加分片服務(wù)器:

 
 
 
 
  1. sh.addShard('127.0.0.1:27020')
  2. sh.addShard('127.0.0.1:27021')
  3. sh.addShard('127.0.0.1:27022')
  4. sh.addShard('127.0.0.1:27023')

配置完成后,可以通過sh.status()命令,查看分片情況:

 
 
 
 
  1. mongos> sh.status()
  2. --- Sharding Status --- 
  3.  sharding version: {
  4.     "_id" : 1,
  5.     "minCompatibleVersion" : 5,
  6.     "currentVersion" : 6,
  7.     "clusterId" : ObjectId("5d8ddd1d94796dc650e29f67")
  8.  }
  9.  shards:
  10.  { "_id" : "shard0000", "host" : "127.0.0.1:27020", "state" : 1 }
  11.  { "_id" : "shard0001", "host" : "127.0.0.1:27021", "state" : 1 }
  12.  { "_id" : "shard0002", "host" : "127.0.0.1:27022", "state" : 1 }
  13.  { "_id" : "shard0003", "host" : "127.0.0.1:27023", "state" : 1 }
  14.  active mongoses:
  15.  "4.2.0" : 1
  16.  autosplit:
  17.  Currently enabled: yes
  18.  balancer:
  19.  Currently enabled: yes
  20.  Currently running: no
  21.  Failed balancer rounds in last 5 attempts: 0
  22.  Migration Results for the last 24 hours: 
  23.  No recent migrations
  24.  databases:
  25.  { "_id" : "config", "primary" : "config", "partitioned" : true }
  26.  config.system.sessions
  27.  shard key: { "_id" : 1 }
  28.  unique: false
  29.  balancing: true
  30.  chunks:
  31.  shard0000  1
  32.  { "_id" : { "$minKey" : 1 } } -->> { "_id" : { "$max

網(wǎng)站欄目:Web架構(gòu)之路:MongoDB集群及高可用實(shí)踐
分享鏈接:http://m.5511xx.com/article/cdghsee.html