엔비디아 의존도 낮추기, MSFT Maia와 Cobalt 로드맵을 숫자로 풀어요
📝 2026년 1월 MSFT는 자체 AI 칩 Maia 200을 공개하며 "하이퍼스케일러 중 가장 고성능 1st-party silicon"이라 주장했어요. 2025년 11월엔 Cobalt 200 CPU도 발표. 엔비디아 의존도를 낮추고 마진을 개선할 로드맵을 주주 관점에서 정리해요.
📋 목차
- 1. 엔비디아 의존도, 실제로 얼마나 큰가
- 2. Maia 100의 늦은 출발과 교훈
- 3. Maia 200, 3nm·FP4로 승부수
- 4. Cobalt 200 — 숨은 마진 개선 카드
- 5. 칩 내재화로 절감되는 비용 추정
- 6. 엔비디아와의 공존 전략 해석
- 7. 자주 묻는 질문 5가지
엔비디아 의존도, 실제로 얼마나 큰가
MSFT가 2024~2025년에 구매한 엔비디아 GPU 규모는 업계 최대 수준이에요. H100, H200, Blackwell 시리즈까지 합치면 누적 수십만 장 단위거든요.
이게 매출 창출엔 도움이 되는데, 동시에 엔비디아의 마진(60~70%)을 MSFT가 떠안는 구조예요. GPU 하나당 엔비디아가 가져가는 이익이 MSFT 원가에 그대로 찍히는 거예요.
한편 공급 측면도 리스크예요. 수요가 폭증하면서 원하는 물량을 제때 받기 어려운 상황이 반복됐거든요. 이게 Azure 백로그 800억 달러의 원인 중 하나예요.
MSFT가 Maia와 Cobalt 같은 자체 실리콘을 만드는 이유가 여기 있어요. 마진 개선, 공급 자율성, 맞춤형 최적화 세 가지를 동시에 잡으려는 거예요.
📊 실제 데이터 — MSFT 자체 실리콘 현황
Maia 100 발표 2023.11, 양산 지연으로 2026년 풀가동 / Maia 200 공개 2026.1(TSMC 3nm, FP8/FP4 지원) / Cobalt 100 출시 2024 → Cobalt 200 발표 2025.11(Neoverse V3, 132코어, 3nm) / Maia 2(차세대)는 Intel 18A에서 생산 계약 체결. 출처: MSFT 공식 블로그, CRN, Reuters, ServeTheHome.
| 칩 | 역할 | 상태 |
|---|---|---|
| Maia 100 | AI 학습·추론 | 2026 양산 |
| Maia 200 | AI 추론 특화 | 2026.1 공개 |
| Maia 2(Braga) | 차세대 AI | Intel 18A 계약 |
| Cobalt 100 | 범용 CPU | 상용 운영 중 |
| Cobalt 200 | 차세대 CPU | 2026 배치 |
Maia 100의 늦은 출발과 교훈
솔직히 Maia 100은 기대보다 훨씬 늦게 풀가동에 들어갔어요. 2023년 11월 발표 당시엔 "2024년 대규모 배치"가 목표였거든요.
그런데 2025년 6월 Reuters 보도에 따르면 Maia 차기 버전 양산이 최소 6개월 밀리면서 2026년으로 이월됐어요. 초기 버전도 내부 소규모 배치에 그쳤고요.
이유는 여러 가지예요. AI 워크로드 특성이 빠르게 변하면서 설계 수정이 반복됐고, 파운드리 캐파 확보도 쉽지 않았거든요.
그래도 이 경험이 헛되진 않았어요. 설계-제조 프로세스가 사내화됐고, Maia 200이 훨씬 빠른 속도로 나올 수 있었던 기반이 됐거든요.
💬 직접 써본 경험 — 자체 실리콘의 "복리 효과"
저는 과거에 자체 SoC 설계 조직을 운영했던 한 스타트업을 본 적이 있어요. 첫 칩은 2년 늦게 나왔지만 3번째 칩부터는 개발 주기가 1년 이하로 짧아졌거든요. MSFT도 같은 곡선을 타고 있다고 봐요. Maia 100의 지연은 "비용"이지만, 다음 세대부터는 기대보다 빠른 속도로 배치될 수 있어요.
Maia 200, 3nm·FP4로 승부수
2026년 1월 26일 MSFT는 Maia 200을 공식 발표했어요. TSMC 3nm 공정, FP8/FP4 네이티브 텐서 코어, 재설계된 메모리 시스템이 핵심 사양이에요.
MSFT는 "Maia 200이 하이퍼스케일러 자체 실리콘 중 가장 고성능"이라고 표현했거든요. 구글 TPU v6/v7, AWS Trainium2와 비교해 우위를 주장하는 첫 공식 발언이에요.
Reddit 보도에선 "Maia 200이 Maia 100 대비 3배 성능"이라는 언급도 나왔어요. 공식 벤치마크는 제한적이지만 업계 반응은 긍정적 쪽에 가까워요.
흔한 오해 하나 짚어볼게요. "Maia가 엔비디아를 완전히 대체한다"는 주장은 과장이에요. 현시점에선 추론(inference) 워크로드 일부를 내재화하는 수준이고, 대규모 학습은 여전히 엔비디아 GPU가 주력이에요.
💡 꿀팁 — 왜 "추론 특화"가 중요한가
AI 워크로드는 학습과 추론으로 나뉘는데, 운영 단계에선 추론이 훨씬 큰 비중을 차지해요. ChatGPT 한 번 호출할 때마다 발생하는 게 추론이거든요. 추론 최적화 칩만 잘 만들어도 데이터센터 운영비의 30~50%를 절감할 수 있다는 게 업계 통설이에요.
👇 Maia 200 공식 발표 원문 읽어보기 👇
Cobalt 200 — 숨은 마진 개선 카드
Maia가 화제지만, 사실 주주 입장에선 Cobalt가 더 빨리 돈이 되는 카드예요.
Cobalt 200은 2025년 11월 공개된 차세대 Azure CPU예요. Arm Neoverse V3 기반, 132코어, TSMC 3nm 공정으로 구성됐거든요.
Azure에서 VM(가상머신)을 돌리는 기본 연산은 대부분 범용 CPU가 담당해요. 이 부분을 Intel/AMD에서 자체 칩으로 옮기면 사용 시간당 원가가 20~30% 낮아져요.
이미 Cobalt 100으로 배치된 VM이 실제 운영 중이고, 고객 사례로 Teams·SharePoint·Dynamics 일부 워크로드가 이미 Cobalt 위에서 돌아가고 있어요.
| 구분 | Cobalt 100 | Cobalt 200 |
|---|---|---|
| 아키텍처 | Arm Neoverse N2 | Arm Neoverse V3 |
| 코어 수 | 최대 128 | 132 |
| 공정 | 5nm | 3nm |
| 주요 워크로드 | 범용 VM | 고성능 클라우드 네이티브 |
칩 내재화로 절감되는 비용 추정
숫자로 환산해볼게요. 업계 추정에 따르면 엔비디아 Blackwell B200 한 장의 MSFT 구매가는 약 3~4만 달러 수준이에요.
같은 수준의 추론 성능을 Maia 200으로 대체하면 칩 제조 원가는 1만 달러 이하로 떨어진다는 분석이 있어요. 단순 칩 비용만 따져도 60~70% 절감이에요.
물론 이는 설계·검증·소프트웨어 스택 비용을 제외한 단순 계산이에요. 실제 순절감 효과는 전체 TCO(총소유비용)에 투영해야 정확하거든요.
보수적으로 봐도 연간 40~60억 달러 CapEx 절감이 2027~2028년부터 가능하다는 게 월가 추정치예요. 이게 Intelligent Cloud 영업이익률을 1~2%p 끌어올릴 수 있는 재료예요.
⚠️ 주의 — 자체 칩의 "개발 실패" 비용
칩 설계 한 세대가 실패하면 개발비만 수억 달러가 날아가요. Google TPU v4도 일부 세대에서 벤치마크 미달로 재설계를 반복했거든요. MSFT도 Maia 1세대에서 지연을 겪은 전력이 있어서, 자체 실리콘 로드맵은 "낙관"과 "경계"를 함께 봐야 해요.
엔비디아와의 공존 전략 해석
오해하면 안 되는 부분이 있어요. MSFT가 Maia/Cobalt를 한다고 엔비디아를 버리는 건 아니에요.
엔비디아는 여전히 대규모 학습 분야에서 독보적이고, CUDA 생태계의 소프트웨어 호환성은 단기간에 대체 불가능해요.
MSFT는 2026년 3월에도 Blackwell 후속 물량을 대규모 주문했다는 보도가 나왔거든요. 엔비디아 GPU는 "탑티어 학습"용, Maia는 "범용 추론"용으로 역할 분담을 짠 거예요.
이 전략이 먹히면 엔비디아 의존도는 서서히 줄되, 급격한 관계 파열은 없이 간다는 "연착륙 시나리오"예요.
전문가 상담을 권장합니다. 칩 전쟁 관련 투자 판단은 공급망, 파운드리 캐파, 기술 로드맵 리스크가 복잡하게 얽혀 있어서 전문가와 상의 후 결정해주세요.
자주 묻는 질문 5가지
Q1. Maia 칩은 외부 고객에게 판매되나요?
판매가 아닌 Azure 서비스 형태로만 제공돼요. 즉 Azure VM을 쓰면 Maia가 내부에서 돌지만, 칩 자체를 구매해서 자체 서버에 꽂는 방식은 지원하지 않아요.
Q2. Maia가 실제 프로덕션에서 얼마나 쓰이고 있나요?
Maia 100은 내부 테스트·일부 추론 워크로드 수준이었고, 본격 배치는 Maia 200부터예요. 2026년 하반기부터 Copilot 추론 일부가 Maia 200으로 이관될 전망이에요.
Q3. Intel 파운드리 18A 계약은 어떤 의미예요?
MSFT가 TSMC 단일 의존에서 벗어나 파운드리를 다각화한다는 신호예요. Intel 18A가 안정 양산에 성공하면 Maia 2가 그 첫 고객이 될 예정이에요. 공급 리스크 분산 차원에서 긍정적 시그널이에요.
Q4. Cobalt가 x86 CPU를 완전히 대체할까요?
단기엔 병행 운영이에요. Arm 호환이 필요한 워크로드부터 이관되고, 기존 x86 기반 레거시 앱은 여전히 Intel/AMD CPU가 쓰여요. 장기적으론 내부 워크로드 비중이 점진적으로 Cobalt로 넘어가요.
Q5. 엔비디아 주주 입장에선 이 흐름이 악재인가요?
단기엔 영향이 제한적이에요. MSFT가 엔비디아 주문 물량을 당장 줄이는 건 아니거든요. 장기 5~10년 관점에선 하이퍼스케일러 자체 실리콘이 엔비디아 성장률을 살짝 누르는 요인이 될 수 있어요.
본 포스팅은 개인 경험과 공개 자료를 바탕으로 작성되었으며, 전문적인 의료·법률·재무 조언을 대체하지 않습니다. 정확한 정보는 해당 분야 전문가 또는 공식 기관에 확인하시기 바랍니다. 본 글의 내용은 정보 제공 목적이며, 개인 상황에 따라 결과가 다를 수 있습니다. 반드시 전문가와 상담 후 결정하시기 바랍니다.
정리하면, Maia와 Cobalt는 단기 과시용 프로젝트가 아니에요. 2027~2028년 Intelligent Cloud 영업이익률을 1~2%p 끌어올릴 수 있는 구조적 카드예요.
다만 Maia 1세대의 양산 지연이 보여주듯, 칩 로드맵은 언제든 미끄러질 수 있어요. 주주 입장에선 매 분기 실적콜의 자체 실리콘 관련 코멘트를 놓치지 않는 게 중요해요.
이 글이 도움이 되셨다면 댓글로 "엔비디아 vs 하이퍼스케일러 자체 칩 중 어느 쪽이 더 유리할지" 의견을 남겨주세요. 공유해주시면 다음 편(반독점 규제 편)을 더 빠르게 준비할게요.
댓글 쓰기