AI 반도체 시장이 뜨겁습니다. NVIDIA가 H200으로 독주하던 시장에 AMD가 MI350으로 본격 도전장을 내밀었습니다. 가격은 NVIDIA의 60% 수준이면서 성능은 90%에 달한다는 벤치마크 결과가 나오면서 시장이 요동치고 있습니다.
NVIDIA H200의 강점
- CUDA 생태계의 압도적 호환성 — 대부분의 AI 프레임워크가 CUDA에 최적화
- HBM3e 메모리 141GB로 대규모 모델 학습에 유리
- NVLink 5.0으로 멀티 GPU 통신 대역폭 2배 향상
- 엔터프라이즈 지원과 안정성에서 검증됨
AMD MI350의 반격
- HBM3e 192GB — 메모리 용량에서 NVIDIA를 앞섬
- ROCm 7.0으로 CUDA 호환 레이어 대폭 개선
- 가격 대비 성능에서 우위 — TCO 기준 30% 절감
- PyTorch 네이티브 지원 강화
클라우드 업체들의 반응도 흥미롭습니다. AWS는 양쪽 모두 지원하지만, Azure는 AMD에 더 적극적이고, GCP는 자체 TPU와 함께 3파전을 벌이고 있습니다.
개인적인 의견으로는, 학습(Training)은 당분간 NVIDIA가 우세하겠지만, 추론(Inference)에서는 AMD와 커스텀 칩이 빠르게 점유율을 가져갈 것 같습니다. 특히 비용에 민감한 스타트업이라면 AMD를 진지하게 검토해볼 시점입니다.
"AI 시대의 진짜 전쟁은 모델이 아니라 반도체에서 벌어지고 있습니다."
댓글 0