본문으로 이동

차세대 AI 인프라를 위한 삼성 SOCAMM2,
새로운 LPDDR 기반 서버 메모리 모듈

  • 메일

전 세계적으로 생성형 AI 도입이 가속화되면서 데이터센터의 연산 워크로드는 이전 세대보다 더욱 빠르게 증가하고 있다. 대규모 모델 학습뿐 아니라, 사용자 요구에 즉각 대응하기 위한 상시 추론(continuous inference) 수요까지 확대되면서 성능과 전력 효율을 동시에 충족하는 것이 차세대 AI 인프라의 핵심 요구로 떠올랐다. 이에 따라 연속적인 AI 워크로드를 안정적으로 처리하면서 에너지 사용을 최소화할 수 있는 저전력 메모리 솔루션의 중요성도 더욱 커지고 있다.

삼성전자는 이러한 흐름에 맞춰 AI 데이터센터에 특화된 LPDDR 기반 서버용 메모리 모듈 SOCAMM2(Small Outline Compression Attached Memory Module)를 개발해 현재 고객사에 샘플을 공급하고 있다. SOCAMM2는 LPDDR을 새로운 폼팩터에 구현해 기존 서버 메모리 대비 높은 대역폭, 향상된 전력 효율, 유연한 시스템 연동성을 제공함으로써 AI 데이터센터의 효율과 확장성을 한층 끌어올린 차세대 서버 메모리 솔루션이다.

socamm2
socamm2


SOCAMM2가 주목받는 기술적 차별성

삼성전자의 최신 LPDDR5X 기반 SOCAMM2는 LPDDR의 저전력 특성과 모듈형 구조의 확장성을 결합해 기존의 서버 메모리와는 차별화된 가능성을 제시한다. RDIMM 위주의 DDR 메모리가 범용 서버의 표준으로 자리 잡은 가운데, SOCAMM2는 높은 응답성과 전력 효율을 동시에 요구하는 AI 가속 서버에 적합한 솔루션으로 주목받고 있다. SOCAMM2는 기존 RDIMM 대비 2배 이상의 대역폭과 55% 이상 낮은 전력 소비를 제공해 고부하 AI 워크로드에서도 안정적인 성능을 유지한다. 또한 모듈형 아키텍처가 제공하는 높은 설계 유연성 덕분에 다양한 AI 시스템에 폭넓게 적용될 수 있는 확장성을 확보했다. 이러한 기술적 기반을 갖춘 SOCAMM2는 AI 서버가 요구하는 성능·전력 효율·확장성을 충족하며, 실제 고객 데이터센터에서도 유의미한 가치를 제공할 것으로 기대된다.


SOCAMM2 도입에 따른 고객 이점

SOCAMM2의 혁신적인 아키텍처는 고객이 AI 서버를 더 효율적이고 안정적으로 운영할 수 있도록 설계되었다.

우선, 분리형 모듈 구조를 적용해 시스템 유지보수와 수명주기 관리(Lifecycle management)가 한층 수월해진다. 기존에는 서버에 저전력 LPDDR을 적용하려면 메인보드에 직접 실장(soldering)해야 했지만, SOCAMM2는 보드를 변경하지 않고도 메모리를 쉽게 교체하거나 업그레이드할 수 있어, 시스템 운영 중단 시간을 줄이고 총소유비용(TCO)을 크게 낮출 수 있다.

또한, SOCAMM2의 우수한 전력 효율은 AI 서버의 발열을 줄여 데이터센터의 열 안정성을 높인다. 이를 통해 냉각 부담이 완화되고 전체 시스템의 에너지 효율이 개선되어, 고집적 AI 인프라 환경에서 데이터센터가 직면하는 운영 비용과 열 관리 문제를 해결하는 데 기여한다.

마지막으로, SOCAMM2는 서버에 메모리를 수직으로 장착하는 기존 방식이 아닌 수평 구조를 채택해 시스템 공간 활용도를 크게 높였다. 이러한 구조적 이점은 히트싱크(heatsink) 배치와 공기 흐름 설계를 더 유연하게 하고, CPU·AI 가속기와의 통합에도 유리하다. 공랭·수랭 등 다양한 냉각 방식과의 호환성도 유지되어 고성능 AI 서버 환경에서 안정적인 열 관리와 효율적인 시스템 구성이 가능하다.


NVIDIA와의 기술 협력 및 JEDEC 표준화 추진 

삼성전자는 서버 시장에서 늘어나는 저전력 메모리 수요에 대응하기 위해 글로벌 AI 업계와의 협력을 강화하며, LPDDR 기반 서버 메모리 생태계 확장을 적극 추진하고 있다. 특히 NVIDIA와의 기술 협업을 통해 SOCAMM2를 NVIDIA 가속 인프라(accelerated infrastructure)에 최적화함으로써, 차세대 추론 플랫폼이 요구하는 높은 응답성과 전력 효율을 확보했다.

NVIDIA HPC 및 AI 인프라 솔루션 총괄 디온 해리스(Dion Harris) 이사는 "AI 워크로드가 학습 중심에서 복잡한 추론과 Physical AI로 확대되는 상황에서, 차세대 데이터센터는 성능과 전력 효율을 동시에 만족하는 메모리 솔루션이 필수"라며, "삼성전자와의 지속적인 기술 협력을 통해 SOCAMM2와 같은 차세대 메모리가 AI 인프라에 요구되는 높은 응답성과 효율을 구현할 수 있도록 최적화 작업을 이어가고 있다"고 밝혔다.

저전력 메모리의 중요성이 커지면서 SOCAMM2의 공식 표준화 작업도 마무리 단계에 접어들었다. 삼성전자는 글로벌 주요 파트너사와 함께 JEDEC 표준 규격 제정을 주도하고 있으며, 차세대 AI 플랫폼과의 호환성 확보 및 생태계 확장을 위한 기술 표준 마련에 적극 기여하고 있다.


삼성전자는 AI 생태계 전반과의 협업을 바탕으로 차세대 AI 인프라가 요구하는 저전력·고대역폭 메모리로의 전환을 이끌고 있다. SOCAMM2는 LPDDR 기술을 서버 영역으로 확장한 전환점이자, 다가오는 '슈퍼칩' 시대를 대비할 핵심 솔루션으로 자리매김하고 있다. LPDDR의 저전력 특성에 모듈형 설계를 더함으로써 AI 시스템을 더욱 작고 효율적으로 구현할 수 있는 새로운 방향성을 제시한다.

AI 워크로드가 지속적으로 증가하고 복잡성이 높아지는 가운데, 삼성전자는 서버용 메모리 제품군을 한층 강화하여 차세대 AI 데이터센터가 요구하는 성능, 전력, 확장성을 균형 있게 제공하는 솔루션을 지속적으로 선보일 계획이다.


* 표시된 이미지는 예시용으로만 제공되며, 제품 자체 또는 해당 제품과 함께 촬영된 이미지를 정확하게 재현하지 않을 수 있습니다.
* 모든 이미지는 디지털 방식으로 편집, 수정 또는 보정되었습니다.
* 모든 제품 사양은 내부 테스트 결과를 반영하며 사용자의 시스템 구성에 따라 변동이 있을 수 있습니다. 실제 성능은 사용 조건과 환경에 따라 다를 수 있습니다.