Dell Pro Max with GB10

내 책상 위 AI 데이터센터

Dell Pro Max with GB10

완벽한 AI 워크로드를 위한 퍼스널 슈퍼컴퓨터.

₩8,800,000부터

견적·납기·세팅까지, Dell 파트너 오픈네트웍시스템이 처음부터 함께합니다.

구매 상담 요청 성능 비교
솔루션

어떤 환경에서 AI를 쓰고 계신가요?

Dell Pro Max GB10은 어디서든, 누구에게든
최적의 AI 워크로드 성능을 실현합니다

문제 상황

학회 마감 시즌, 실험 한 번 돌리기 위해 며칠을 기다려야 합니다

대학원생 5~10명이 서버 한 대를 공유합니다.
학회 마감이 겹치면 대기가 수일씩 밀리고,
밤새 돌리던 실험이 다른 사람 작업으로 중단됩니다.

해결

내 책상 전용 머신, 대기 큐 제로

공용 서버 경쟁 자체가 없어집니다.
NVIDIA Grace Blackwell 기반 최대 200B 파라미터 모델을 즉시 구동할 수 있습니다.

LLM 파인튜닝반복 실험모델 프로토타입
문제 상황

학기 시작 때 받은 연구비, 실험 몇 번에 바닥납니다

대규모 모델 학습을 몇 번 돌리면 예산이 금방 소진됩니다.
남은 학기 동안 실험을 멈추거나 규모를 축소하는 상황이 반복됩니다.

해결

구매 이후 추가 과금 제로

반복 실험을 얼마나 돌려도 비용이 늘지 않습니다.
연구비 소진 걱정 없이 실험에만 집중할 수 있습니다.

추가 과금 없음연구비 효율화
문제 상황

월말 클라우드 청구서, 열기 전까지 금액을 모릅니다

AI 모델 학습·추론은 리소스 사용량이 불규칙해 월말 청구서를 받기 전까지 정확한 비용을 알 수 없습니다.

해결

온프레미스 고정 비용, 청구서 리스크 제로

AI를 자주, 많이 쓰는 팀일수록 장기적으로 클라우드 대비 비용 효율이 높아집니다.

고정 비용클라우드 탈피사내 LLM
문제 상황

폐쇄망에서는 클라우드 AI를 사용할 수 없습니다

국방·공공기관·금융기관은 내부망과 외부망이 물리적으로 분리되어 있습니다.
클라우드 AI 서비스는 사용 자체가 불가능합니다.

해결

인터넷 없이 완전한 로컬 구동

물리적 망분리 환경에서도 데이터센터급 AI 성능을 그대로 사용할 수 있습니다.

완전 오프라인폐쇄망 최적엣지 AI
문제 상황

데이터 처리 이력을 외부 클라우드에 남겨선 안 됩니다

금융·의료·공공기관은 처리 이력을 내부에서 완전히 추적·보관해야 하는 법적 의무가 있습니다.

해결

모든 처리가 디바이스 안에서만

처리 이력을 내부에서 완전히 통제할 수 있습니다.
개인정보보호법 및 ISMS 요건 대응이 간소화됩니다.

TPM 2.0 감사 추적
스펙 비교

Dell Pro Max GB10의 차별화된 스펙

타 제품과 직접 비교해보세요

비교 항목 ★ 추천
Dell Pro Max GB10
HP Z2 Mini G1a
(AI Max+ 395)
Mac Studio
M3 Ultra
가격 약 880만 원 약 600만 원 약 659만 원 (메모리 96GB)
AI 추론 성능 (BF16) 101 TFLOPS / 1 PFLOPS (FP4) 36.9 TFLOPS 미공개
최대 구동 모델 200B 128B 120B
AI 개발 생태계 NVIDIA CUDA / DGX OS ROCm / HIP
*호환 안되는 AI 툴 존재
Core ML / MLX
*호환 안되는 AI 툴 존재
소비전력 (추론 중) ~200 W ~220 W ~270 W
크기 15×15×5.1cm / 1.3kg 8.5×16.8×20cm / 2.3kg 19.7×19.7×9.5cm / 3.6kg
확장성 케이블 1개 → 2대, 256GB / 405B 확장 불가 확장 불가
메모리 용량 128 GB 128 GB 96~256 GB
메모리 대역폭 273 GB/s 212 GB/s 819 GB/s
토큰 생성 속도 (120B) 38.5 tok/s 34 tok/s 69 tok/s
OS 지원 Ubuntu 24.04 (DGX OS) Windows / Ubuntu macOS 전용
성능

압도적인 AI 워크로드 성능

200B 모델, 이제 책상 위에서 손쉽게 구동하세요

AI 연산 성능 (FP4)
1 PFLOPS
1,000 TFLOPS · 최고급 게이밍 GPU의 12배
RTX 4090
300~
GB10
1,000
단위: TFLOPS
FP4 연산 지원으로 경쟁 칩 대비 실질 성능 차이가 더 크게 벌어짐
프롬프트 읽기 속도
1,723 tok/s
200B 모델 기준 · 1초 내 응답 시작
A4 1장 분량 답변, 약 15초 완성
대기 없는 실시간 대화형 응답
최대 구동 모델
200B
외부 유출 없이 로컬에서 구동
10년치 사내 문서를 AI가 즉시 검색·요약
계약서를 통째로 읽고 위험 조항을 자동 표시
금융 거래 수만 건에서 이상 패턴을 실시간 탐지
128GB 전체를 AI에 활용 → 200B 구동 가능 (AI Max+ 395는 96GB 제한 → 128B까지)
AI 개발 생태계
CUDA / DGX OS
글로벌 AI 표준 환경
PyTorch · TensorFlow · Docker · JupyterLab 사전 설치
전 세계 AI 연구 90%+가 CUDA 기반,
논문·오픈소스 코드를 그대로 실행
데이터센터(H100/A100) 코드 수정 없이 바로 배포 가능
편의성

언제 어디서든, 24시간 끊김 없는 퍼포먼스

USB-C 하나, 컴팩트한 15cm 사이즈로 충분합니다

🌡️
68~71°C
안정적 쿨링
전면→후면 에어플로우
고부하에서도 안정 유지
🔇
40dB↓
저소음 설계
24시간 운영 적합
사무실·연구실 환경
~200W
초저전력
동급 AI 서버 대비 1/10
코어 자동 전환
📦
1.3kg
15×15×5.1cm
USB-C 전원
출장에서도 동일 환경
  • 고성능 코어 10개 + 저전력 코어 10개 구성 → 성능 손실 없이 소비전력 최소화
  • AI 추론 중엔 고성능 코어가, 대기·경량 작업엔 저전력 코어가 자동 처리
확장성

케이블 하나로, 데이터센터급 AI를 책상 위에

비싼 장비 살 필요 없이, 2대 연결하면 끝입니다

비교 항목 ★ 추천
Dell Pro Max × 2
H100 80GB × 4 GPU 클라우드
(405B 기준)
가격 약 1,600만 원 (일회성) 1.5~2.3억 원 연 7,500만 원+
메모리 256GB 320GB 320GB
최대 파라미터 (4bit) 405B 405B+ 405B
설치 공간 책상 위 2대 서버실 공간 불필요
데이터 보안 완전 로컬 완전 로컬 외부 서버
연결 방법 QSFP 케이블 1개 InfiniBand (3~5천만 원 추가) 멀티GPU 인스턴스

Dell 생태계 안에서, 코드 한 줄 변동 없이 손쉬운 확장

STEP 1
GB10 단독
128GB · 200B 모델
내 책상 위 1대로 시작
STEP 2
2대 클러스터
256GB · 405B 모델
코드·환경 변경 없이 확장
STEP 3
Dell 엔터프라이즈
서버·스토리지로 단계적 확장
기존 인프라 코드 변경 없이 확장
글로벌 공급망·전담 지원 체계

데이터센터급 포트 구성

QSFP 200Gbps부터 10GbE까지 — 책상 위에서 서버실 수준의 연결을 그대로 씁니다

Dell Pro Max GB10 후면 포트
1
전원 버튼
LED 상태 표시 포함
2
USB-C 전원 연결
280W 어댑터 전용
3
USB-C Gen 2×2 × 3
20Gbps · DP Alt 모드 지원
4
HDMI 2.1b
4K/8K 디스플레이 출력
5
네트워크 (RJ-45)
10GbE 이더넷
6
ConnectX-7 (QSFP × 2)
200Gbps · 듀얼 노드 연결용
오픈네트웍시스템에서 사야 하는 이유

좋은 장비를 알아도, 구매 후 세팅·관리까지 많은 과정이 있습니다.

이 모든 과정,
오픈네트웍시스템이 모두 해결해드립니다

한국 델테크놀로지스 공식 인증 판매점
Dell Technologies Gold Partner
Dell Technologies Gold Partner
당사에서 판매하는 모든 제품은 Dell의 정상적인 유통경로를 통해 공급되는 제품이며, Dell 공식 Gold Partner로서 지정된 프리미엄 서비스 및 제품보증을 받을 수 있음을 보증합니다.
🔴 구매 전 고민
📦
납기 불확실
"AI 서버 리드타임 28~32주,
연구 일정에 맞출 수 없습니다"
오픈네트웍시스템 해결
오픈네트웍시스템 재고 확보 현황을 실시간으로 공유합니다.
일정에 맞춘 납기 상담을 제공합니다.
💸
비용 대비 효과
"이 가격 주고 살 만한 건가요?
클라우드·조립PC·서버 중 뭐가 나은지 모르겠습니다"
오픈네트웍시스템 해결
Dell·AMD·IBM 공인 파트너입니다.
27년 IT 인프라 전문 컨설팅으로 용도별 최적 구성을 제안합니다.
📋
품의 / 예산 승인
"3천만 원 이상 장비,
품의 자료 만들다 지칩니다"
오픈네트웍시스템 해결
비교 견적서·ROI 분석·스펙시트를 대신 제작해 드립니다.
🛡️
정품·보증 불안
"고가 장비인데 정품인지,
고장 나면 보증이 제대로 되는지 모르겠습니다"
오픈네트웍시스템 해결
Dell 공식 인증 판매점에서 구매하는 정품으로,
기본 하드웨어 보증 최대 3년 + 원격 진단 후 현장 서비스가 포함됩니다.
🟠 구매 후 걱정
⚙️
세팅 복잡
"받아도 바로 못 씁니다.
CUDA 버전 충돌로 GPU가 안 잡힙니다"
오픈네트웍시스템 해결
AI 환경 최적화 완료 후 납품합니다.
박스 개봉 즉시 사용할 수 있습니다.
🔧
AS / 유지보수
"고장나면 누구한테
물어봐야 하나요?"
오픈네트웍시스템 해결
구매 후 전담 기술지원팀이 배정됩니다.
지속적으로 대응해 드립니다.
👤
관리 인력 부족
"보안·네트워크 설정까지
연구자가 다 해야 합니다"
오픈네트웍시스템 해결
초기 세팅을 완료한 후 납품합니다.
운영 중 기술지원으로 관리 부담을 제거해 드립니다.

27년 IT 인프라 전문기업

오픈네트웍시스템과 함께 하세요

구매 상담 요청

상세 스펙시트

예산 신청·내부 보고에 바로 활용 가능한 전체 사양입니다.

클릭하면 전체 상세 사양이 펼쳐집니다

CPUNVIDIA Grace (ARM 20코어: Cortex-X925 ×10 + Cortex-A725 ×10)
GPUNVIDIA Blackwell
연결 방식NVLink-C2C 저지연 CPU-GPU 연결
통합 메모리128GB LPDDR5X (CPU·GPU 공유)
스토리지2TB / 4TB NVMe SSD
AI 성능1 페타플롭스 (FP4 기준)
최대 LLM 파라미터단일: 200B / 2대 스태킹: 405B
확장 연결QSFP56 DAC 케이블, 200G (21GB/s 실측)
OSNVIDIA DGX OS (Ubuntu Linux 기반)
보안TPM 2.0 탑재
크기15cm × 15cm x 5.1cm
무게1.3kg
전원280W 어댑터
사전 설치CUDA, PyTorch, TensorFlow, Docker, JupyterLab, NVIDIA AI Workbench
워런티최대 3년

Dell Pro Max, 더 자세히 알아보세요

상세 스펙, 벤치마크 데이터를 한눈에. 예산 신청서에 바로 활용 가능합니다.

제품 스펙시트 다운로드
Dell Pro Max with GB10

내 책상 위
AI 데이터센터

연구실에서, 사무실에서, 어디서든 AI를 시작하세요

구매 상담 요청

수집된 정보는 구매 상담 목적으로만 사용되며, 상담 완료 후 즉시 파기됩니다.