Debian 8의 GlusterFS를 사용한 고가용성 스토리지 - 두 스토리지 서버에서 미러링
이 튜토리얼은 다음 OS 버전에 대해 존재합니다.
- 데비안 8(제시)
- 데비안 5(레니)
이 페이지에서
- 1 서문
- 2 GlusterFS 서버 설정
- 3 GlusterFS 클라이언트 설정
- 4 GlusterFS 복제 테스트
- 5개의 링크
이 가이드에서는 GlusterFS를 사용하는 두 개의 스토리지 서버(Debian Jessie)로 고가용성 스토리지를 설정하는 방법을 보여줍니다. 각 스토리지 서버는 다른 스토리지 서버의 미러가 되며 파일은 두 스토리지 노드 간에 자동으로 복제됩니다. 클라이언트 시스템(Debian 8도 포함)은 마치 로컬 파일 시스템인 것처럼 저장소에 액세스할 수 있습니다. GlusterFS는 여러 페타바이트로 확장할 수 있는 클러스터 파일 시스템입니다. Infiniband RDMA 또는 TCP/IP 상호 연결을 통해 다양한 스토리지 브릭을 하나의 대규모 병렬 네트워크 파일 시스템으로 통합합니다. 스토리지 브릭은 SATA-II RAID 및 Infiniband HBA가 있는 x86_64 서버와 같은 모든 상용 하드웨어로 만들 수 있습니다.
1 서문
이 튜토리얼에서는 3개의 시스템, 2개의 서버 및 1개의 클라이언트를 사용합니다.
- server1.example.com: IP 주소 192.168.1.100(서버)
- server2.example.com: IP 주소 192.168.1.101(서버)
- client1.example.com: IP 주소 192.168.1.102(클라이언트)
세 시스템 모두 다른 시스템 호스트 이름을 확인할 수 있어야 합니다. DNS를 통해 이 작업을 수행할 수 없는 경우 세 시스템 모두에서 다음과 같이 보이도록 /etc/hosts 파일을 편집해야 합니다.
nano /etc/hosts
127.0.0.1 localhost
192.168.1.100 server1.example.com server1
192.168.1.101 server2.example.com server2
192.168.1.102 client1.example.com client1
# The following lines are desirable for IPv6 capable hosts
::1 localhost ip6-localhost ip6-loopback
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
(다음 설정에서 호스트 이름 대신 IP 주소를 사용할 수도 있습니다. IP 주소 사용을 선호하는 경우 호스트 이름을 확인할 수 있는지 여부를 신경쓰지 않아도 됩니다.)
2 GlusterFS 서버 설정
최신 GlusterFS 버전은 gluster.org에서 데비안 패키지로 제공됩니다. 다음과 같이 설치할 수 있습니다.
두 서버 모두에 gluster.org Debian 저장소의 공개 키를 추가합니다.
wget -O - http://download.gluster.org/pub/gluster/glusterfs/3.7/3.7.9/rsa.pub | apt-key add -
그런 다음 GlusterFS 리포지토리를 추가합니다(명령은 한 줄입니다!).
echo deb http://download.gluster.org/pub/gluster/glusterfs/3.7/3.7.9/Debian/jessie/apt jessie main > /etc/apt/sources.list.d/gluster.list
리포지토리 목록을 업데이트합니다.
apt-get update
이제 apt로 GlusterFS 서버 소프트웨어를 설치할 수 있습니다.
apt-get -y install glusterfs-server
명령
glusterfsd --version
이제 방금 설치한 GlusterFS 버전(이 경우 3.7.9)이 표시되어야 합니다.
:/#
방화벽을 사용하는 경우 TCP 포트 111, 24007, 24008, 24009-(24009 + 모든 볼륨의 브릭 수)가 server1.example.com 및 server2.example.com에서 열려 있는지 확인하십시오.
Glusterfs는 서버의 /data 디렉토리에 데이터를 저장합니다. 설치 규모가 작거나 별도의 하드 디스크 파티션을 사용하고 /data로 마운트하는 경우 이 위치는 일반 디렉토리가 될 수 있습니다.
두 서버에서 실행:
mkdir /data
데이터 디렉토리를 생성합니다.
다음으로 신뢰할 수 있는 저장소 풀에 server2.example.com을 추가해야 합니다. GlusterFS 노드 사이 - 올바른 호스트 이름 또는 IP 주소를 사용하는지 확인하십시오):
server1.example.com에서 다음을 실행합니다.
gluster peer probe server2.example.com
:/#
신뢰할 수 있는 스토리지 풀의 상태는 이제 다음과 유사해야 합니다.
gluster peer status
:/# gluster peer status
Number of Peers: 1
Hostname: server2.example.com
Uuid: 0f7ee46c-6a71-4a31-91d9-6076707eff95
State: Peer in Cluster (Connected)
:/#
다음으로 server1.example.com 및 server2.example.com에 두 개의 복제본이 있는 testvol이라는 공유를 생성합니다(이 경우 미러링을 설정하려고 하므로 복제본의 수는 서버의 수와 같습니다). /data/testvol 디렉토리(존재하지 않는 경우 생성됨):
gluster volume create testvol replica 2 transport tcp server1.example.com:/data/testvol server2.example.com:/data/testvol force
:/#
볼륨 시작:
gluster volume start testvol
:/#
테스트 볼륨이 성공적으로 시작되었습니다.
위의 명령은 작업이 성공하지 못했음을 알려줄 수 있습니다.
:~#
이 경우 출력을 확인해야 합니다...
netstat -tap | grep glusterfsd
두 서버 모두에서.
이렇게 출력이 된다면...
:/#
... 모든 것이 정상이지만 출력이 없으면 ...
:~#
... 해당 서버(이 경우 server1.example.com)에서 GlusterFS 데몬을 다시 시작합니다.
service glusterfs-server restart
그런 다음 출력을 확인하십시오 ...
netstat -tap | grep glusterfsd
... 해당 서버에서 다시 - 이제 다음과 같이 표시됩니다.
:/#
이제 server1.example.com으로 돌아갑니다.
명령으로 볼륨의 상태를 확인할 수 있습니다.
gluster volume info
:/# gluster volume info
Volume Name: testvol
Type: Replicate
Volume ID: 3fc9af57-ca56-4a72-ad54-3d2ea03e5883
Status: Started
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1.example.com:/data/testvol
Brick2: server2.example.com:/data/testvol
Options Reconfigured:
performance.readdir-ahead: on
:/#
기본적으로 모든 클라이언트는 볼륨에 연결할 수 있습니다. client1.example.com(= 192.168.1.102)에만 액세스 권한을 부여하려면 다음을 실행하십시오.
gluster volume set testvol auth.allow 192.168.1.102
:/#
IP 주소(예: 192.168.*)에 와일드카드를 사용할 수 있으며 쉼표로 구분된 여러 IP 주소(예: 192.168.1.102,192.168.1.103)를 지정할 수 있습니다.
이제 볼륨 정보에 업데이트된 상태가 표시됩니다.
gluster volume info
[email :/# gluster 볼륨 정보
Volume Name: testvol
Type: Replicate
Volume ID: 3fc9af57-ca56-4a72-ad54-3d2ea03e5883
Status: Started
Number of Bricks: 1 x 2 = 2
Transport-type: tcp
Bricks:
Brick1: server1.example.com:/data/testvol
Brick2: server2.example.com:/data/testvol
Options Reconfigured:
auth.allow: 192.168.1.102
performance.readdir-ahead: on
:/#
3 GlusterFS 클라이언트 설정
클라이언트 시스템에서 먼저 gluster.org Debian 저장소의 공개 키를 추가합니다.
wget -O - http://download.gluster.org/pub/gluster/glusterfs/3.7/3.7.9/rsa.pub | apt-key add -
그런 다음 GlusterFS 리포지토리를 추가합니다(명령은 한 줄입니다!).
echo deb http://download.gluster.org/pub/gluster/glusterfs/3.7/3.7.9/Debian/jessie/apt jessie main > /etc/apt/sources.list.d/gluster.list
리포지토리 목록을 업데이트합니다.
apt-get update
이제 다음과 같이 GlusterFS 클라이언트를 설치할 수 있습니다.
apt-get -y install glusterfs-client
그런 다음 다음 디렉토리를 만듭니다.
mkdir /mnt/glusterfs
그게 다야! 이제 다음 명령을 사용하여 GlusterFS 파일 시스템을 /mnt/glusterfs에 마운트할 수 있습니다.
mount.glusterfs server1.example.com:/testvol /mnt/glusterfs
(위 명령에서 server1.example.com 대신 server2.example.com을 사용할 수도 있습니다!)
이제 출력에서 새 공유를 볼 수 있습니다...
mount
:/#
... 그리고...
df -h
:/#
GlusterFS 공유를 클라이언트에 수동으로 마운트하는 대신 클라이언트 부팅 시 공유가 자동으로 마운트되도록 /etc/fstab를 수정할 수 있습니다.
/etc/fstab을 열고 다음 줄을 추가합니다.
nano /etc/fstab
[...] server1.example.com:/testvol /mnt/glusterfs glusterfs defaults,_netdev 0 0
(다시 말하지만, server1.example.com 대신 server2.example.com을 사용할 수도 있습니다!)
수정된 /etc/fstab이 작동하는지 테스트하려면 클라이언트를 재부팅합니다.
reboot
재부팅 후 다음 출력에서 공유를 찾아야 합니다.
df -h
... 그리고...
mount
4 GlusterFS 복제 테스트
이제 GlusterFS 공유에 몇 가지 테스트 파일을 생성해 보겠습니다.
touch /mnt/glusterfs/test1
touch /mnt/glusterfs/test2
이제 server1.example.com 및 server2.example.com에서 /data 디렉토리를 확인하겠습니다. test1 및 test2 파일은 각 노드에 있어야 합니다.
server1.example.com/server2.example.com:
ls -l /data/testvol
:/# ls -l /data/testvol/
total 0
-rw-r--r-- 2 root root 0 Mar 23 2016 test1
-rw-r--r-- 2 root root 0 Mar 23 2016 test2
이제 server1.example.com을 종료하고 client1.example.com의 GlusterFS 공유에서 일부 파일을 추가/삭제합니다.
shutdown -h now
touch /mnt/glusterfs/test3
touch /mnt/glusterfs/test4
rm -f /mnt/glusterfs/test2
변경 사항은 server2.example.com의 /data/testvol 디렉토리에 표시되어야 합니다.
ls -l /data/testvol
:/#
server1.example.com을 다시 부팅하고 /data 디렉토리를 살펴보겠습니다.
ls -l /data/testvol
:/#
보시다시피 server1.example.com은 변경 사항을 자동으로 동기화했습니다. 변경 사항이 아직 동기화되지 않은 경우 수정하기 쉽습니다. client1.example.com의 GlusterFS 공유에서 읽기 명령을 호출하기만 하면 됩니다. 예를 들면 다음과 같습니다.
ls -l /mnt/glusterfs/
:/#
5 링크
- GlusterFS: http://www.gluster.org/
- GlusterFS 문서: http://gluster.readthedocs.org/en/latest/
- 데비안: http://www.debian.org/