- 특징
- 부하와 분산에 따라서 자동의로 균형을 맞춰준다
- 새머신의 추가히기 쉽다
- 자동 복구가 가능하다
- 수천개의 노드도 수평적으로 확장가능
- config server, mongos, mongod 로 구성됨
- 부하와 분산에 따라서 자동의로 균형을 맞춰준다
- 한계
- sharding내에서의 인증과 보안문제
- sharding
키가되는 필드로 각 머신의로 나뉘어서 들어간다
해당키에 대해서 각 머신은 chunk라는 단위로 데이터를 쌓는다
user는 mongos 를 통해서 자신의 요청에 적합한 shard로 명령을 내린다
sharding은 collection단위로 실행된다 - balancing
하나의 shard node가 너무 많이 차게 되면 분산된다 - failover
- scailing model
auto sharding model은 구글의 big table, yahoo위 pnuts 와 유사하다
order-preserving partitioning이 사용되어짐 - shard keys
index처럼 여러개를 key로 갖을수 있고 order-preserving partitioning이 사용되므로 각 shard에는
어느정도 range의 데이터드이 뭉쳐서 들어가게 된다
해당 range는 mongo config서버에 저장된다 - chunks
chunk는 collection, maxkey, minkey 이렇게 3개로 나타진다
보통 64M 까지 증가한다. 해당 용량을 넘어서면 2개의 chunk로 나누어진다
키를 선택할때는 해당 키가 균등하게 데이터를 분산할수 있게할수 있는 값인지 판단필요
만약의 single key를 사용할때 해당 key에 대해서 끝도 없이 커질 위험이 있을 경우에는 여러개의 key를 shard key로 사용해야함 - config server
shard server의 정보와 chunk정보를 갖고있다
chunk데이터가 config server 의 main data이다
config server끼리는 모든 chunk데이터의 복사본을 갖는다
chunk데이터는 consistency를 유지하기 위해서 2phase commit 이 발생한다
config server는 자신만의 replica set 구조를 갖는다 (일반적인 mongodb의 replica set이랑 다름)
config server가 하나라도 죽으면 다른 config server는 read만할수 있다 (이때 mongo cluster에도 read, write가능하다) - routing process (mongos)
mongo cluster를 단일 system처럼 생각할 수 있게 routing역할을한다
user로부터 request가 오면 적합한 server로 request를 보내거나 취합해서 user에게 돌려준다
mongos는 독자적인 영구적이 저장이 없고 startup될때 config server로부터 데이터를 받고 데이터가 변경되면
config server로부터 해당 변경 데이터를 받는다 - opereation종류
global : 전체 shard로 부터 연산 필요
target : single 또는 몇개의 shard로부터 연산 - sharding 만들기
물리적 서버 2대를 기준으로 만든다고생각 (server1, server2로 구성)
shard는 2개로 구성예정 각각의 replication을 server1,2에 분산해서 처리
1. start mongod
먼저 필요한 디렉토리 생성
server1 : mkdir -p /home/yoga/workspace/mall/shard1/log /home/yoga/workspace/mall/shard1/data /home/yoga/workspace/mall/shard2/log /home/yoga/workspace/mall/shard2/data
server2 : mkdir -p /home/yoga/workspace/mall/shard1/log /home/yoga/workspace/mall/shard1/data /home/yoga/workspace/mall/shard2/log /home/yoga/workspace/mall/shard2/data
shard1 구성 (replica set 구성)
server1에서 : mongod --shardsvr --replSet shard1 --fork --logpath /home/yoga/workspace/mall/shard1/log/mongodb.log --logappend --dbpath /home/yoga/workspace/mall/shard1/data --rest --oplogSize 2048 --port 30000
server2에서 : mongod --shardsvr --replSet shard1 --fork --logpath /home/yoga/workspace/mall/shard1/log/mongodb.log --logappend --dbpath /home/yoga/workspace/mall/shard1/data --rest --oplogSize 2048 --port 30000
shard2 구성 (replica set 구성)
server1에서 : mongod --shardsvr --replSet shard2 --fork --logpath /home/yoga/workspace/mall/shard2/log/mongodb.log --logappend --dbpath /home/yoga/workspace/mall/shard2/data --rest --oplogSize 2048 --port 30001
server2에서 : mongod --shardsvr --replSet shard2 --fork --logpath /home/yoga/workspace/mall/shard2/log/mongodb.log --logappend --dbpath /home/yoga/workspace/mall/shard2/data --rest --oplogSize 2048 --port 30001
replica set config 구성 : server1에서는 shard1이 master, server2에서는 shard2가 master
server1 또는 2 아무곳에서나
mongo --port 30000
config = { _id : "shard1", members : [
{_id: 0, host: "server1의ip:30000" , priority : 1},
{_id: 1, host: "server2의ip:30000", priority: 1}]}
rs.initiate(config);
exit
mongo --port 30001
config = { _id : "shard2", members : [
{_id: 0, host: "server1의ip:30001" , priority : 1},
{_id: 1, host: "server2의ip:30001", priority: 1}]}
rs.initiate(config);
exit
server1에서는 shard1이 master로 server2에서는 shard2가 master로 될수 있게 셋팅하자
mongo shell을 통해서 master가 잘못 잡혔으면 해당 서버에서 rs.stepDown()을 해주자
(처음에 지정할 마스터를 선택하는게 있을듯.....문서좀 뒤져봐야겠다)
2. config server
config server를 위한 디렉토리 설정 (server1, 2에서 실행, 1 or 3개 띄어야해서 2번서버에 42000port로 하나더 띄움)
mkdir -p /home/yoga/workspace/mall/config/log /home/yoga/workspace/mall/config/data
server1,2에서 : mongod --configsvr --fork --port 40000 --logpath /home/yoga/workspace/mall/config/log/mongodb.log --logappend --dbpath /home/yoga/workspace/mall/config/data --rest
server2에만(디렉토리도 만들어주자 log3, data3으로) : mongod --configsvr --fork --port 42000 --logpath /home/yoga/workspace/mall/config/log3/mongodb.log --logappend --dbpath /home/yoga/workspace/mall/config/data3 --rest
3. mongos 셋팅
server1,2에 셋팅
mkdir -p /home/yoga/workspace/mall/router/log /home/yoga/workspace/mall/router/data
server1, 2에서 : mongos --port 50000 --configdb server1:40000,server2:40000,server2:42000 --logpath /home/yoga/workspace/mall/router/log/mongodb.log --logappend --fork
mongos에 shard정보를 입력하기 (하나만하면 다른 모든 mongos에 전파되는듯..)
mongo server1:50000/admin
db.runCommand({addshard:"shard1/server1:30000,server2:30000"})
db.runCommand({addshard:"shard2/server1:30001,server2:30001"})
db.runCommand({listshards:1}) : 현재 셋팅된 shard 알려줌
db.runCommand({enablesharding: "mall"}) : shard할 데이터베이스 이름 (요걸안하면 첫번째 shard에 계속 저장된다)
db.runCommand({ shardcollection: "mall.product", key : {p_id:1, p_name:1}}) : shard할 collection 셋팅 및 shard key지정
'DB,SQL' 카테고리의 다른 글
MongoDB Sharding ReplicaSet (0) | 2014.06.30 |
---|---|
MongoDB Sharding & Arbiter (0) | 2014.06.24 |
Redis 기초 명령어 (0) | 2014.03.25 |
ZooKeeper를 활용한 Redis Cluster 관리 (0) | 2014.03.21 |
php 에서 mongoDB 사용하기 (0) | 2014.03.07 |