이전 글

Ceph Cluster 배포

이전 글에 이어서 설치된 Proxmox 3대를 이용하여 Ceph Cluster 를 구성해보겠습니다.

    테스트 구성도

  • 테스트에 사용할 네트워크 정보
    • vmbr0 : VM Network
    • Cluster 및 CEPH Public Network : 20.20.20.0/24
    • CEPH Cluster Network : 30.30.30.0/24

배포

    PVE 관리 GUI > Datacenter > Ceph 메뉴를 선택하고 Install Ceph 를 선택합니다.

    설치할 Ceph 버전을 Quincy 로 선택하고 Repository 를 No-Subscription 을 선택하였습니다.

    Ceph 패키지를 설치를 수행합니다. Y 를 입력합니다.

    일정 시간 이후로 Ceph 패키지가 설치가 완료된 것을 확인 할 수 있습니다.

    패키지가 설치된 이후, Ceph 에서 사용할 네트워크를 지정합니다.

    위와 같이 pve1 노드에 Ceph 기본 설치가 완료되었습니다.

    pve1 노드만 설치된 대시보드의 모습입니다.

    Ceph MON 을 추가합니다. 각 노드 > Ceph > Monitor 메뉴를 이용합니다.

    pve2 를 Ceph MON 으로 추가하는 과정으로 Monitor 이름을 지정합니다.

    mon.pve2 가 추가된 것을 확인 할 수 있습니다.

    마지막으로 pve3 도 Ceph MON 을 추가합니다.

    pve2 노드를 Ceph MGR 로 추가합니다.

    위 과정을 통해 pve2, pve3 노드의 Ceph MGR 이 추가되었습니다.

    Ceph OSD 생성을 위해 각 노드 > Ceph > OSD 메뉴를 이용합니다.

    Create : OSD 를 선택하면 위와 같은 화면이 나오며 OSD 에 사용할 디스크을 지정합니다.

    추가된 OSD 를 확인 할 수 있습니다.

    나머지 OSD 도 각각 추가합니다. 각 노드별로 두개의 디스크를 사용할 것입니다.

    OSD 가 모두 추가가 되면 위와 같이 Ceph 가 정상적으로 구성이 되고 사용할 준비가 되었습니다.

    Ceph Pool 을 생성하여 pve-cluster 에서 사용 할 vmpool 을 생성합니다.

    생성이 완료된 것을 볼 수 있습니다. 또한 각 노드에서 vmpool 을 동시에 사용 할 수 있습니다.

    생성된 Ceph Pool 은 RBD 유형이고 Ceph Pool 을 사용하면 pve-cluster 에서 손쉽게 라이브 마이그레이션을할 수 있도록
    지원할 수 있습니다.

Command

아래와 같이 기존의 Ceph 명령어로도 Ceph 정보를 확인 할 수 있습니다.

root@pve1:~# ceph -s
  cluster:
    id:     5d4305ee-5756-40e7-b2fd-04e0eb19a4d3
    health: HEALTH_OK

  services:
    mon: 3 daemons, quorum pve1,pve2,pve3 (age 2m)
    mgr: pve1(active, since 2m), standbys: pve2, pve3
    osd: 6 osds: 6 up (since 8s), 6 in (since 13m)

  data:
    pools:   1 pools, 1 pgs
    objects: 2 objects, 577 KiB
    usage:   1.7 GiB used, 598 GiB / 600 GiB avail
    pgs:     100.000% pgs not active
             1 remapped+peering

참고 문서

chhanz's profile image

chhanz

2024-05-31

Read more posts by this author