본문으로 이동

Red Hat Ceph Storage 3.2를 채택한 All-Flash NVMe™ 레퍼런스 아키텍처

  • 메일
다운로드
All-Flash NVMe™ Reference Architecture with Red Hat Ceph Storage 3.2
All-Flash NVMe™ Reference Architecture with Red Hat Ceph Storage 3.2
엔터프라이즈 스토리지의 기반 및 관련 기술은 매년 계속 발전하고 있다. 특히, IoT와 5G, 인공지능(AI), 머신러닝(ML) 기술이 주목받으면서, 클러스터 스토리지 서버를 기반으로 한 소프트웨어 정의 스토리지(SDS, Software-Defined Storage) 솔루션에 대한 수요도 증가하고 있다. Ceph는 고성능에 중점을 둔 워크로드를 감당할 선도적 SDS 솔루션으로 부상했다. 따라서 스토리지 기기의 처리량이 많고 지연 시간이 짧은 것은 Ceph 클러스터의 전반적 성능을 향상하는 중요한 요인이다. NVMe™ SSD에 Ceph 클러스터를 채택하면 이러한 성능 향상을 극대화할 수 있다. 이에 따라 삼성은 All-Flash NVMe™ SSD를 기반으로 한 Ceph 클러스터를 설계하여 다양한 시험을 거친 후, Ceph 사용자에게 최적화된 Ceph 구성을 제공하고 있다. 이 문서는 x86 아키텍처 기반 스토리지 클러스터에서 삼성 PM1725a NVMe™ SSD에 Red Hat ® Ceph 스토리지의 최적의 성능을 제공하기 위한 삼성 NVMe™ SSD 레퍼런스 아키텍처를 소개한다. 동시에, Ceph 클러스터를 위한 최적의 구성과 이 클러스터의 성능을 벤치마크한 결과도 제공한다. 삼성은 All-Flash PM1725a NVMe™ SSD를 기반으로 한 다섯 개의 스토리지 노드를 구성하여 2백만 IOPS를 능가하는 4KB 임의적 읽기 성능이라는 결과를 얻었다. 아래 표는 이 레퍼런스 아키텍처에서 평가된 성능 및 지연 시간(레이턴시)에 대한 결과를 보여준다. 아래 링크를 클릭하여 white paper를 다운로드할 수 있다.
4KB 임의적 워크로드쓰기읽기
평균 처리량(KIOPS)4932255
평균 99.99%th 레이턴시(ms)74.20153.21
평균 레이턴시(ms)12.972.85
128KB 순차적 워크로드쓰기읽기
평균 처리량(GB/s)18.851.6