웹사이트 검색

Linux에서 RAID 10 또는 1+0(중첩) 설정 - 6부


RAID 10RAID 0RAID 1을 결합하여 RAID 10을 구성합니다. Raid 10을 설정하려면 최소 4개의 디스크가 필요합니다. 이전 기사에서는 최소 2개의 디스크로 RAID 0 및 RAID 1을 설정하는 방법을 살펴보았습니다.

여기서는 RAID 0과 RAID 1을 모두 사용하여 최소 4개의 드라이브로 Raid 10 설정을 수행합니다. RAID 10으로 생성된 논리 볼륨에 일부 데이터가 저장되어 있다고 가정합니다. 예를 들어, "apple" 데이터를 저장하는 경우 이는 다음과 같이 4개 디스크 모두에 저장됩니다. 이 다음 방법.

RAID 0을 사용하면 첫 번째 디스크에 "A"로 저장되고 두 번째 디스크에 "p"로 저장되고 다시 "p"로 저장됩니다. '는 첫 번째 디스크에 있고 'l'은 두 번째 디스크에 있습니다. 그런 다음 첫 번째 디스크의 "e"는 이와 같이 라운드 로빈 프로세스를 계속하여 데이터를 저장합니다. 이를 통해 우리는 RAID 0이 데이터의 절반을 첫 번째 디스크에 쓰고 나머지 절반은 두 번째 디스크에 기록한다는 것을 알게 되었습니다.

RAID 1 방식에서는 다음과 같이 동일한 데이터가 다른 2개의 디스크에 기록됩니다. “A”는 첫 번째와 두 번째 디스크에 모두 쓰고, “P”는 두 디스크에 모두 쓰고, 다시 다른 “P”는 디스크에 씁니다. 두 디스크 모두. 따라서 RAID 1을 사용하면 두 디스크 모두에 기록됩니다. 이는 라운드 로빈 프로세스에서 계속됩니다.

이제 여러분은 RAID 0과 RAID 1을 결합하여 RAID 10이 어떻게 작동하는지 알게 되었습니다. 20GB 크기 디스크가 4개 있으면 총 80GB가 되지만 저장 용량은 40GB만 얻게 됩니다. , RAID 10 구축 시 전체 용량의 절반이 손실됩니다.

RAID 5의 장점과 단점

  1. 더 나은 성능을 제공합니다.
  2. RAID 10에서는 디스크 용량 중 2개가 손실됩니다.
  3. 4개 디스크 모두에 동시에 쓰고 읽기 때문에 읽기 및 쓰기 기능이 매우 좋습니다.
  4. 높은 I/O 디스크 쓰기가 필요한 데이터베이스 솔루션에 사용할 수 있습니다.

요구사항

RAID 10에는 최소 4개의 디스크가 필요합니다. 처음 2개의 디스크는 RAID 0에, 다른 2개의 디스크는 RAID 1에 필요합니다. 앞서 말했듯이 RAID 10은 RAID 0과 1의 결합일 뿐입니다. RAID를 확장해야 하는 경우 그룹의 경우 디스크를 최소 4개 이상 늘려야 합니다.

내 서버 설정
Operating System :	CentOS 6.5 Final
IP Address	 	:	192.168.0.229
Hostname	 	:	rd10.tecmintlocal.com
Disk 1 [20GB]	 	:	/dev/sdd
Disk 2 [20GB]	 	:	/dev/sdc
Disk 3 [20GB]	 	:	/dev/sdd
Disk 4 [20GB]	 	:	/dev/sde

RAID 10을 설정하는 방법에는 두 가지가 있지만 여기서는 두 가지 방법을 모두 보여 드리겠습니다. 하지만 RAID 10 설정 작업이 훨씬 더 쉬운 첫 번째 방법을 따르는 것이 좋습니다.

방법 1: Raid 10 설정

1. 먼저 다음 명령을 사용하여 추가된 4개의 디스크가 모두 감지되는지 확인합니다.

ls -l /dev | grep sd

2. 4개의 디스크가 감지되면 새 드라이브를 생성하기 전에 이미 존재하는 RAID가 있는지 드라이브를 확인할 차례입니다.

mdadm -E /dev/sd[b-e]
mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde

참고: 위 출력에서 아직 감지된 슈퍼 블록이 없다는 것을 알 수 있습니다. 이는 4개 드라이브 모두에 정의된 RAID가 없음을 의미합니다.

1단계: RAID용 드라이브 파티셔닝

3. 이제 'fdisk' 도구를 사용하여 4개의 디스크(/dev/sdb, /dev/sdc, /dev/sdd 및 /dev/sde) 모두에 새 파티션을 만듭니다.

fdisk /dev/sdb
fdisk /dev/sdc
fdisk /dev/sdd
fdisk /dev/sde
/dev/sdb 파티션 생성

fdisk를 사용하여 디스크 중 하나(/dev/sdb)를 분할하는 방법을 보여 드리겠습니다. 이 단계는 다른 모든 디스크에서도 동일합니다.

fdisk /dev/sdb

/dev/sdb 드라이브에 새 파티션을 생성하려면 아래 단계를 따르십시오.

  1. 새 파티션을 만들려면 'n'을 누르세요.
  2. 그런 다음 기본 파티션으로 'P'를 선택합니다.
  3. 그런 다음 첫 번째 파티션으로 '1'을 선택합니다.
  4. 그런 다음 'p'를 눌러 생성된 파티션을 인쇄합니다.
  5. 유형을 변경하세요. 사용 가능한 모든 유형을 알아야 한다면 'L'을 누르세요.
  6. 여기서는 내 유형이 RAID이므로 'fd'를 선택합니다.
  7. 다음으로 'p'를 눌러 정의된 파티션을 인쇄하세요.
  8. 그런 다음 'p'를 다시 사용하여 변경 사항을 인쇄합니다.
  9. 변경사항을 작성하려면 'w'를 사용하세요.

참고: 다른 디스크(sdc, sdd sdd sde)에 파티션을 생성할 때 위와 동일한 지침을 따르십시오.

4. 4개의 파티션을 모두 생성한 후 다음 명령을 사용하여 기존 RAID에 대한 드라이브를 다시 검사해야 합니다.

mdadm -E /dev/sd[b-e]
mdadm -E /dev/sd[b-e]1

OR

mdadm --examine /dev/sdb /dev/sdc /dev/sdd /dev/sde
mdadm --examine /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1

참고: 위 출력은 새로 생성된 4개의 파티션 모두에서 슈퍼 블록이 감지되지 않았음을 보여줍니다. 즉, 앞으로 진행하여 이러한 파티션에 RAID 10을 생성할 수 있음을 의미합니다. 드라이브.

2단계: 'md' RAID 장치 생성

5. 이제 'mdadm' RAID 관리 도구를 사용하여 'md'(예: /dev/md0) 장치를 생성할 차례입니다. 장치를 생성하기 전에 먼저 시스템에 'mdadm' 도구가 설치되어 있어야 합니다.

yum install mdadm		[on RedHat systems]
apt-get install mdadm 	[on Debain systems]

'mdadm' 도구가 설치되면 이제 다음 명령을 사용하여 'md' raid 장치를 생성할 수 있습니다.

mdadm --create /dev/md0 --level=10 --raid-devices=4 /dev/sd[b-e]1

6. 다음으로 'cat' 명령을 사용하여 새로 생성된 RAID 장치를 확인합니다.

cat /proc/mdstat

7. 다음으로 아래 명령을 사용하여 4개의 드라이브를 모두 검사합니다. 아래 명령의 출력은 4개 디스크 모두의 정보를 표시하므로 길어집니다.

mdadm --examine /dev/sd[b-e]1

8. 다음으로, 다음 명령을 사용하여 Raid Array의 세부 사항을 확인합니다.

mdadm --detail /dev/md0

참고: 위 결과에서 Raid 상태가 활성화되어 다시 동기화되는 것을 볼 수 있습니다.

3단계: 파일 시스템 생성

9. 'md0'에 대해 ext4를 사용하여 파일 시스템을 생성하고 '/mnt/raid10'에 마운트합니다. 여기서는 ext4를 사용했지만 원하는 경우 모든 파일 시스템 유형을 사용할 수 있습니다.

mkfs.ext4 /dev/md0

10. 파일 시스템을 생성한 후 생성된 파일 시스템을 '/mnt/raid10'에 마운트하고 'ls -l' 명령을 사용하여 마운트 지점의 내용을 나열합니다.

mkdir /mnt/raid10
mount /dev/md0 /mnt/raid10/
ls -l /mnt/raid10/

다음으로, 마운트 지점 아래에 일부 파일을 추가하고 파일 중 하나에 일부 텍스트를 추가한 후 내용을 확인합니다.

touch /mnt/raid10/raid10_files.txt
ls -l /mnt/raid10/
echo "raid 10 setup with 4 disks" > /mnt/raid10/raid10_files.txt
cat /mnt/raid10/raid10_files.txt

11. 자동 마운트를 위해 '/etc/fstab' 파일을 열고 아래 항목을 fstab에 추가합니다. 마운트 지점은 환경에 따라 다를 수 있습니다. wq!를 사용하여 저장하고 종료합니다.

vim /etc/fstab

/dev/md0                /mnt/raid10              ext4    defaults        0 0

12. 그런 다음 'mount -a' 명령을 사용하여 시스템을 다시 시작하기 전에 '/etc/fstab' 파일에 오류가 있는지 확인하세요.

mount -av

4단계: RAID 구성 저장

13. 기본적으로 RAID에는 구성 파일이 없으므로 위의 모든 단계를 수행한 후 시스템 부팅 중에 이러한 설정을 유지하려면 구성 파일을 수동으로 저장해야 합니다.

mdadm --detail --scan --verbose >> /etc/mdadm.conf

그게 다입니다. 방법 1을 사용하여 RAID 10을 만들었습니다. 이 방법이 더 쉽습니다. 이제 방법 2를 사용하여 RAID 10을 설정해 보겠습니다.

방법 2: RAID 10 생성

1. 방법 2에서는 RAID 1 세트 2개를 정의한 다음 생성된 RAID 1 세트를 사용하여 RAID 0을 정의해야 합니다. 여기서는 먼저 2개의 미러(RAID1)를 생성한 다음 RAID0에 스트라이핑을 수행합니다.

먼저 RAID 10을 생성하는 데 사용할 수 있는 디스크를 모두 나열합니다.

ls -l /dev | grep sd

2. 'fdisk' 명령을 사용하여 4개의 디스크를 모두 파티션합니다. 파티션을 나누려면 위의 #3단계를 따르세요.

fdisk /dev/sdb
fdisk /dev/sdc
fdisk /dev/sdd
fdisk /dev/sde

3. 디스크 4개를 모두 분할한 후 이제 디스크에 기존 RAID 블록이 있는지 검사합니다.

mdadm --examine /dev/sd[b-e]
mdadm --examine /dev/sd[b-e]1

1단계: RAID 1 생성

4. 먼저 4개의 디스크 'sdb1'과 'sdc1'을 사용하고 다른 세트는 'sdd1' 및 'sde1'을 사용하여 RAID 1 세트 2개를 생성하겠습니다.

mdadm --create /dev/md1 --metadata=1.2 --level=1 --raid-devices=2 /dev/sd[b-c]1
mdadm --create /dev/md2 --metadata=1.2 --level=1 --raid-devices=2 /dev/sd[d-e]1
cat /proc/mdstat

2단계: RAID 0 생성

5. 다음으로 md1 및 md2 장치를 사용하여 RAID 0을 만듭니다.

mdadm --create /dev/md0 --level=0 --raid-devices=2 /dev/md1 /dev/md2
cat /proc/mdstat

3단계: RAID 구성 저장

6. 재부팅할 때마다 모든 RAID 장치를 로드하려면 '/etc/mdadm.conf'에 구성을 저장해야 합니다.

mdadm --detail --scan --verbose >> /etc/mdadm.conf

그런 다음 #step 3 방법 1의 파일 시스템 생성을 수행해야 합니다.

그게 다야! 방법 2를 사용하여 RAID 1+0을 만들었습니다. 여기서는 두 개의 디스크 공간을 잃게 되지만 다른 RAID 설정에 비해 성능이 뛰어납니다.

결론

여기서는 두 가지 방법을 사용하여 RAID 10을 만들었습니다. RAID 10은 성능과 중복성도 뛰어납니다. RAID 10 Nested Raid 레벨을 이해하는 데 도움이 되기를 바랍니다. 향후 기사에서 기존 공격대 배열을 확장하는 방법과 더 많은 내용을 살펴보겠습니다.