CXL 메모리, AI시대에 필요한 반도체인가?

CXL메모리가 무엇인지, AI시대에서 CXL이 가지고 있는 장점과 특징을 알려드립니다. HBM과는 어떤 차이를 가지는지 알아보겠습니다.

1. CXL 메모리란 무엇일까?

CXL 반도체는 Computer Express Link 로 CPU, GPU, 메모리, 가속기 등 다양한 컴퓨터 내 장치 간의 고속 인터페이스 기술입니다. 2019년에 인텔이 처음 제안하고, 이전 DDR 인터페이스보다 낮은 지연시간, 높은 대역폭으로 데이터 처리에 있어 높은 효율을 가질 수 있습니다. 기존 DRAM에서는 확장이 어렵고, 비효율적이었습니다. CXL 반도체를 통해 DRAM의 용량을 유연하게 확장할 수 있습니다. 앞으로 있을 미래에 생성형AI, 자율주행, 고성능 컴퓨터 등 데이터가 폭증할 때 필요한 기술입니다.

2. CXL메모리가 AI시대에 유리한 점

1. DRAM 용량 확장의 용이함

  • LLM과 같이 최근 AI모델들은 데이터를 실시간으로 처리해야하는데, 이때 수백 GB~TB급 메모리를 요구함
  • CXL반도체는 시스템 외부에서 메모리를 자유롭게 확장할 수 있음.
  • 기존의 메모리는 채널수, 슬롯 수 등 물리적인 한계에 제한

2. 낮은 지연시간과 높은 대역폭

  • CXL PCIe 5.0 기반으로 동작하고, 낮은 지연시간(레이턴시)을 제공함
  • AI연상은 실시간 응답, 대용량 데이터 처리가 함께 이뤄지기 때문에 빠른 데이터 접근과 넓은 대역폭이 필요함
  • CXL은 이것을 가능하게 함

3. 컴퓨터 내 각 장치와의 고속 데이터 공유

  • CXL은 CPU, GPU, AI가속기 간에 데이터 공유 및 접근할 수 있는 역할을 함.
  • 즉, 각 장치의 메모리가 별도로 동기화없이, 공유 메모리 영역에서 실시간 처리가 가능해짐
  • AI 연산 최적화, 효율적임

4. 효율성 및 자원 활용성 증가

  • 위와 같은 장점들을 통해서 리소스 낭비를 줄이고, 같은 하드웨어로 더 많은 AI작업 가능해짐

3. CXL의 한계

CXL에서도 한계점이 존재합니다. 성능, 호환성, 비용, 전력, 보안 등의 조건들을이 발목을 잡고 있기 때문에 HBM, DRAM과의 적절한 구조 또한 필요합니다.

1. HBM, DRAM 직접연결 메모리보다 느림

  • CXL은 내부에 직접 연결되어 있는 DRAM, HBM보다는 느립니다.
  • CXL 메모리는 시스템 메모리와 달리 하드웨어 적으로 떨어져있는 메모리에 데이터를 요청하는 구조라, 기본적으로 지연이 발생합니다.

2. 표준 완성도 및 상호 운용성 미숙

  • CXL1.1~ 3.1까지 빠르게 발전하고 있지만, 버전 간 호환성, 장비 간 표준 통일성 문제
  • CXL 메모리 모듈, 스위치, 컨트롤러 등 하드웨어와 소프트웨어와의 호환성이 필요한데 일부 실험 및 연구적 단계임
  • CXL의 지원범위가 리눅스와 같이 제한되는 경우

3. 비용 및 복잡성

  • CXL 모듈은 DRAM에 비해 복잡한 구조가 들어감
  • 설계, 운영, 관리 비용이 증가함

4. 전력 소모

  • DRAM보다 많은 회로, 프로토콜 처리가 추가되어 같은 용량이라도 더 많은 전력 소모
  • 데이터센터에서는 이에 따른 전력 최적화가 중요

4. CXL과 HBM, DRAM의 차이

CXL과 HBM, DRAM의 기본적인 개념, 특징의 차이를 볼 수 있습니다.

항목DRAM (일반 메모리)HBM (고대역폭 메모리)CXL 메모리 (확장형 메모리)
기본 개념일반적인 시스템 주 메모리고대역폭·고속 메모리CPU와 외부 메모리 장치 연결 인터페이스
연결 위치CPU에 직접 연결 (DIMM 슬롯)GPU/AI칩 내부에 적층CPU 또는 가속기에 PCIe 기반 연결
속도 (지연/대역폭)중간 지연 / 중간 대역폭매우 낮은 지연 / 매우 높은 대역폭지연 높음 / 대역폭 중간 (PCIe 수준)
용량 확장성제한적 (슬롯 수에 의존)매우 제한적 (수 GB 수준)매우 우수 (수십~수백 GB 확장 가능)
확장 유연성낮음 (물리 슬롯 한계)낮음 (칩 설계에 고정)높음 (PCIe 슬롯으로 유연 확장 가능)
특징저렴하고 범용성 높음초고속, 발열 많고 고가메모리 풀링 가능, 공유 메모리 지원
사용 용도일반 PC, 서버AI 가속기, 고성능 컴퓨팅(HPC)AI 학습 서버, 대규모 데이터 처리
전력 소비중간높음중간~높음 (컨트롤러 포함)
단가낮음매우 높음DRAM보다 높고 HBM보단 저렴 (예상)
기술 난이도성숙매우 높음 (3D 적층 등 필요)복잡한 컨트롤러 및 프로토콜 필요

5. CXL메모리 기업

1. 삼성전자

  • 2021년에 발표한 기사에서 CXL 1.1기반 D램, 2022년 128GB CXL D램, 512GB CMM-D등 개발
  • CXL 2.0 기반 256GB CMM-D 제품
  • 2024년 세계 최초 CXL 메모리 모듈 양산
  • 리눅스 환경에서의 CXL 동작 검증 성공으로 데이터센터에서 소프트웨어 변경없이 적용가능함

2. SK하이닉스

  • 현재로 HBM에 집중하고 있으나, CXL 메모리 기술도 개발 중임
  • 향후 고용량, 고성능 메모리 솔루션 수요에 대응

3. 인텔, AMD, NVIDIA

  • 차세대 서버 칩셋에서 CXL 인터페이스 채택 가능성 증가
  • 인텔의 Sapphire Rapid, AMD의 Genoa등 CXL 1.1~2.0 지원

6. CXL메모리 전망

  1. 현재의 한계
    • DRAM은 슬롯 수, 물리적 연결 거리에 따라 확장성이 제한
    • 대규모 AI 및 데이터센터에서는 메모리 병목이 심해서, 높은 대역폭이 필요
    • CPU, GPU 간 데이터 이동에 다른 지연 시간, 전력소비 증가
  2. CXL로 변화되는 점
    • 기존 메모리의 한계를 외부 확장으로 수십~수백 TB 메모리 풀 구현 가능
    • CXL Type 3 메모리 장치로 메모리 디바이스도 네트워크 처럼 확장할 수 있음
    • 최종적으로 CXL은 DRAM과 HBM의 한계를 보완, 메모리를 하이퍼스케일 인프라 수준까지 끌어올릴 기반 마련
  3. AI 및 데이터 센터 수요 급증
    • 메모리 수요 폭증 : GPT, 코파일럿 등 학습 파라미터의 수가 수천억 개임, DRAM만으로 감당 불가능
    • CXL는 CPU,GPU와 공유 가능한 확장 메모리 풀링 제공
    • AI 학습 및 추론에서 더 많은 데이터셋 로딩 가능
    • CXL 메모리는 향후 AI서버의 표준사양 될 가능성이 있음

7. 마무리

CXL메모리는 아직은 상용화되지 않았지만, 향후에 차세대 메모리가 될 수 있는 반도체라는 점은 확실해보입니다. 현재는 HBM이 AI 반도체의 중심이라고 느껴집니다. 현재의 AI기술에도 만족스러운 결과값을 내고 있다고 생각이 드는데, CXL메모리와 같은 차세대 기술이 접목이 된다면 더 향상된 AI는 무엇일지 잘 그려지지 않을 정도일 것으로 보입니다. 삼성전자가 HBM에서 아쉬운 모습을 많이 보여줬지만 CXL에서 선두주자로 차세대 미래의 반도체를 이끌어 준다면, 우리나라도 HBM, CXL 두가지 반도체를 통해 성장할 수 있지 않을까?라는 생각을 하게됩니다.

댓글 남기기