Meta, Nvidia 없이 AI 돌린다 — MTIA 4종 공개

AI 반도체 제조 클린룸의 실리콘 웨이퍼, AI generated
Meta는 4세대 자체 AI 칩을 동시에 공개했습니다

2026년 3월 11일, Meta는 공식 AI 블로그를 통해 자체 AI 칩 ‘MTIA(Meta Training and Inference Accelerator)’ 4개 세대를 한꺼번에 공개했습니다. MTIA 300, 400, 450, 500이 바로 그것입니다. 단순한 신제품 발표가 아닙니다. 이 발표는 AI 인프라의 권력 지형이 바뀌고 있음을 알리는 신호탄이라고 해도 과언이 아닙니다.

지금까지 AI 산업에서 Nvidia의 GPU는 절대적인 존재였습니다. 대규모 언어 모델 훈련과 추론 모두 Nvidia의 H100, B200 없이는 불가능에 가까웠습니다. 그러나 Google은 TPU로, Amazon은 Trainium으로, Microsoft는 Maia로 자체 칩 생태계를 키워가고 있습니다. Meta도 그 대열에 본격적으로 합류한 것입니다. 4세대를 동시에 공개한 이 전략적 행보가 무엇을 의미하는지, 그리고 우리가 쓰는 AI 서비스에 어떤 변화를 가져올지 짚어보겠습니다.

MTIA 4세대, 하나씩 뜯어보면

MTIA 시리즈는 RISC-V 아키텍처를 기반으로 설계되었습니다. 반도체 제조는 TSMC가 맡고, 칩 개발은 Broadcom과 공동으로 진행했습니다. 소프트웨어 측면에서는 Meta가 주도적으로 개발한 머신러닝 프레임워크인 PyTorch와 네이티브 호환되며, 오픈소스 추론 엔진인 vLLM도 지원합니다. 칩렛(chiplet) 기반 모듈식 설계를 채택해 확장성과 유연성을 확보한 점도 특징입니다.

MTIA 300은 이미 Meta 데이터센터에 프로덕션 배치가 완료된 세대입니다. 랭킹 및 추천 시스템 훈련에 최적화되어 있으며, 이후 등장하는 GenAI 칩들의 기반 아키텍처 역할을 했습니다. 인스타그램 피드 정렬, 페이스북 뉴스피드 추천 알고리즘 등이 이 칩 위에서 구동되고 있다고 보면 됩니다.

MTIA 400은 테스트를 마치고 데이터센터 배치를 앞두고 있는 세대입니다. MTIA 300 대비 FP8 FLOPS가 400% 증가했고, HBM(고대역폭메모리) 대역폭은 51% 늘었습니다. 72개의 가속기를 하나의 스케일업 도메인으로 묶을 수 있으며, 듀얼 컴퓨트 칩렛 구조를 채택했습니다. Meta는 이 칩이 “시판 제품 대비 경쟁력 있는 수준”이라고 밝혔습니다. Nvidia를 직접적으로 거론하지는 않았지만, 그 비교 대상이 누구인지는 명확합니다.

MTIA 450은 2027년 초 대량 배치 예정입니다. 7 petaflops의 FP8 컴퓨팅 성능을 제공하며, 288GB HBM을 탑재합니다. TDP는 1,400W로 전력 소비가 상당하지만, MTIA 400 대비 HBM 대역폭이 2배 증가했습니다. 특히 MoE(Mixture of Experts) 연산에 최적화된 커스텀 저정밀 데이터 타입을 도입해 MX4 FLOPS 기준 75% 향상을 이뤄냈습니다. MoE 구조는 Meta의 최신 언어 모델인 Llama 시리즈에도 사용되는 핵심 아키텍처이기 때문에, MTIA 450은 Meta의 생성형 AI 서비스 추론에 직접 활용될 것입니다.

MTIA 500은 2027년 중 대량 배치 목표를 잡고 있습니다. 10 petaflops FP8 컴퓨팅에 384~512GB HBM, TDP 1,700W 사양입니다. MTIA 450 대비 HBM 대역폭이 50% 추가 증가했고, HBM 용량은 최대 80%까지 늘었습니다. MX4 FLOPS 기준으로도 43% 향상을 이뤄내 MoE 추론 효율성이 한 단계 더 올라갔습니다. 2×2 칩렛 구성으로 성능과 유연성을 모두 끌어올렸습니다.

MTIA 300에서 500까지 전체 세대를 비교하면 HBM 대역폭은 4.5배, 컴퓨트 FLOPS는 무려 25배 증가했습니다. 2~3년 사이에 이 정도 성능 도약을 이뤄낸 것은 단순한 칩 개발을 넘어선 체계적인 로드맵 실행의 결과입니다.

태블릿으로 AI 서비스를 이용하는 여성, AI generated
AI 추론 비용 절감은 사용자 경험 향상으로 이어집니다

6개월 주기 출시, Nvidia도 따라가기 버거운 속도

이번 발표에서 가장 눈길을 끄는 대목은 속도입니다. Meta는 6개월 주기로 신형 MTIA 칩을 출시할 계획을 밝혔습니다. Meta 측은 이에 대해 “실리콘 회사로서도 이례적인 속도”라고 표현했습니다. 반도체 업계에서 6개월 간격 신제품 출시는 사실상 전례 없는 일입니다. Nvidia의 GPU 아키텍처 교체 주기가 통상 1~2년인 점을 감안하면, Meta가 얼마나 공격적인 로드맵을 밟고 있는지 가늠할 수 있습니다.

이 빠른 출시 주기를 가능하게 하는 것이 바로 칩렛 기반 모듈식 설계입니다. 전통적인 단일 다이(monolithic die) 방식으로는 이런 속도를 유지하기 어렵습니다. 칩렛 구조는 각 기능 블록을 별도로 개발하고 조합할 수 있어 설계 사이클을 대폭 단축합니다. MTIA 400, 450, 500이 동일한 섀시, 랙, 네트워크 인프라를 공유하도록 설계된 것도 이 전략의 일환입니다. 신칩이 나와도 기존 데이터센터 인프라를 그대로 활용할 수 있어 교체 비용과 시간을 최소화할 수 있습니다.

엔비디아 GTC 2026 행사에서 공개된 DLSS 5 기술을 보면, Nvidia 역시 자사 GPU 생태계를 공고히 하기 위한 행보를 멈추지 않고 있습니다. Meta와 Nvidia의 경쟁은 단순한 칩 성능 경쟁이 아니라, AI 인프라의 주도권을 둘러싼 생태계 전쟁의 성격을 띠고 있습니다.

냉각 방식도 주목할 만합니다. MTIA는 AALC(Air-Assisted Liquid Cooling) 방식을 채택했습니다. 액체 냉각의 효율성과 공기 냉각의 호환성을 결합한 이 방식은 기존 데이터센터에 별도 인프라 투자 없이도 MTIA를 즉시 투입할 수 있게 합니다. 대규모 전환 비용이 자체 칩 도입의 걸림돌이 되지 않도록 설계 단계부터 고려한 것입니다.

Nvidia 대체가 아닌 보완 — 그러나 균열은 이미 시작됐다

중요한 점은 Meta가 MTIA를 Nvidia GPU의 완전한 대체재로 포지셔닝하지 않는다는 것입니다. Meta의 현재 전략은 ‘추론 우선(inference-first)’입니다. 대규모 언어 모델 훈련은 여전히 Nvidia GPU에 의존합니다. MTIA는 훈련이 끝난 모델을 실제 서비스에 활용하는 추론 단계에 집중합니다. 이미지·영상·텍스트 생성, 랭킹·추천 알고리즘이 주요 적용 영역입니다.

Meta는 2026년 설비투자(CapEx)로 1,150~1,350억 달러(약 150~175조 원)를 책정했습니다. 이 중 상당 부분이 Nvidia와 AMD의 GPU 구매에 사용됩니다. MTIA가 Nvidia를 대체하는 것이 아니라 병행 운용한다는 뜻입니다. 그렇다면 이번 발표가 왜 중요한가요?

추론은 AI 서비스 운영 비용에서 훈련 못지않게 큰 비중을 차지합니다. 사용자가 ChatGPT에 질문을 하거나, 인스타그램에서 릴스를 볼 때마다 추론 연산이 발생합니다. 이 추론을 자체 칩으로 처리할 수 있다면, Nvidia에 지불하던 비용의 상당 부분을 절약할 수 있습니다. Meta가 매일 수억 명의 사용자를 대상으로 AI 추론을 수행한다는 점을 고려하면, 그 절감액은 천문학적입니다.

AI 에이전트가 코드를 스스로 작성하는 시대가 열리면서 AI 추론 수요는 폭발적으로 증가하고 있습니다. 이런 상황에서 추론 전용 자체 칩을 확보하는 것은 AI 서비스 기업의 생존 전략이나 다름없습니다.

MTIA 로드맵이 계획대로 실행된다면, 2027년부터 Meta는 추론 인프라의 상당 부분을 자체 조달할 수 있게 됩니다. 단기적으로는 Nvidia와 공존하더라도, 중장기적으로는 Nvidia 의존도를 체계적으로 낮춰가는 구조입니다. 이것이 바로 이번 발표가 단순한 칩 스펙 공개 이상의 의미를 가지는 이유입니다.

대규모 AI 데이터센터 서버랙, AI generated
MTIA 칩은 기존 데이터센터에 바로 투입할 수 있도록 설계됐습니다

빅테크 AI 칩 자급화 경쟁, 무엇이 바뀌는가

Meta의 MTIA 발표는 고립된 사건이 아닙니다. Google TPU, Amazon Trainium, Microsoft Maia, 그리고 Meta MTIA. 세계 최대 AI 서비스 기업들이 모두 자체 칩 개발에 뛰어들었습니다. 이 흐름의 공통점이 무엇인지 살펴보면, 왜 이 변화가 불가역적인지 이해할 수 있습니다.

첫째, 비용 구조의 혁신입니다. AI 서비스 기업들이 지출하는 GPU 구매 비용은 엄청납니다. 자체 칩으로 추론을 처리할 수 있다면 이 비용의 상당 부분을 자본 투자로 전환할 수 있습니다. 처음에는 Nvidia GPU보다 비쌀 수 있지만, 대규모로 운용할수록 단위 비용은 낮아집니다. 이는 결국 AI 서비스 가격 인하로 이어질 수 있습니다. 실제로 무료 AI가 유료 모델을 앞서기 시작한 흐름을 보면, AI 서비스의 가격 경쟁은 이미 시작됐습니다. 인프라 비용 절감은 이 경쟁의 판을 더욱 빠르게 바꿀 것입니다.

둘째, 공급망 리스크 분산입니다. Nvidia GPU는 공급이 제한적이고, 지정학적 리스크에도 취약합니다. 자체 칩을 보유하면 외부 공급망에 대한 의존도를 줄일 수 있습니다. 특히 TSMC 파운드리를 활용하되 설계를 자체적으로 통제한다는 점에서, Meta는 공급망의 핵심 부분에 대한 자율성을 확보한 셈입니다.

셋째, 소프트웨어-하드웨어 통합 최적화입니다. 자체 칩은 자사 소프트웨어에 맞춰 최적화할 수 있습니다. MTIA가 PyTorch 네이티브를 지원하는 것, MoE 연산에 특화된 커스텀 데이터 타입을 도입한 것 모두 Meta의 AI 모델 구조에 칩을 맞춘 결과입니다. 범용 GPU로는 달성하기 어려운 효율성입니다.

넷째, 오픈소스 생태계 확장입니다. MTIA의 RISC-V 기반 설계는 하드웨어 생태계의 다변화를 촉진합니다. RISC-V는 특정 기업의 독점 ISA가 아닌 오픈 표준입니다. Meta가 RISC-V 기반 AI 칩의 성공 사례를 만든다면, 다른 기업들의 유사한 시도를 촉진하는 촉매제가 될 수 있습니다. Nvidia의 CUDA 생태계가 독점적 지위를 유지해온 것은 소프트웨어 생태계의 장벽 때문이었는데, 오픈소스 기반의 대안이 커질수록 그 장벽은 낮아집니다.

한국 AI 산업에 주는 시사점

이 변화가 한국과 무관한 이야기처럼 느껴질 수 있습니다. 그러나 그렇지 않습니다. 네이버, 카카오, KT 등 국내 AI 서비스 기업들도 AI 추론에 드는 GPU 비용 부담을 느끼고 있습니다. 빅테크의 자체 칩 전략이 성숙해 추론 비용이 낮아지면, 국내 기업들도 그 혜택을 간접적으로 누릴 수 있습니다. 클라우드 서비스를 통해 Meta나 AWS의 자체 칩 기반 추론 서비스를 이용하는 방식으로 말입니다.

더 직접적인 영향은 삼성전자와 SK하이닉스에서 나올 수 있습니다. MTIA 450과 500의 스펙을 보면 HBM 탑재량이 288GB에서 최대 512GB까지 늘어납니다. HBM 세계 시장의 절반 이상을 SK하이닉스가 공급하고 있고, 삼성전자도 HBM 공급을 확대하고 있습니다. Meta가 MTIA 생산을 확대할수록, 한국 메모리 반도체 기업들의 수요도 함께 늘어납니다. 특히 MTIA 500의 HBM 용량이 최대 512GB에 달한다는 점은, 차세대 HBM4 칩에 대한 수요 신호로도 읽을 수 있습니다. Meta가 2026년에만 약 150~175조 원의 설비투자를 집행하는 만큼, 이 투자 흐름이 한국 반도체 생태계에 미치는 파급력은 결코 작지 않습니다.

Cursor가 에이전트 8개를 동시 실행하며 매출 2조를 돌파한 것처럼, AI 서비스의 컴퓨팅 수요는 단선적으로 증가하지 않습니다. 더 많은 에이전트, 더 많은 동시 처리, 더 복잡한 추론 체인이 결합되면서 수요는 기하급수적으로 늘어납니다. 이 수요를 누가, 어떤 칩으로 소화하느냐의 경쟁이 앞으로 AI 산업의 주요 전선이 될 것입니다.

마치며

Meta의 MTIA 4세대 동시 공개는 여러 층위에서 읽을 수 있는 사건입니다. 기술적으로는 6개월 주기 신칩 출시라는 전례 없는 속도전입니다. 전략적으로는 추론 인프라 자급화를 통한 Nvidia 의존도 축소입니다. 산업적으로는 빅테크 AI 칩 자급화 경쟁의 본격화를 알리는 신호입니다.

2027년 MTIA 450, 500이 Meta 데이터센터에 대규모 배치되는 시점이 오면, 오늘의 이 발표가 AI 인프라 역사에서 중요한 전환점으로 기록될 가능성이 높습니다. Nvidia의 독점 시대가 끝난다는 뜻이 아닙니다. 그러나 단일 공급자에 의존하던 구조가 다변화되고, 경쟁이 격화되면서 결국 가격과 성능 모두 사용자에게 유리한 방향으로 움직일 것입니다.

AI 서비스를 매일 사용하는 우리 입장에서 보면, 이 칩 경쟁의 최종 수혜자는 다름 아닌 일반 사용자일 수 있습니다. Meta가 자체 칩으로 추론 비용을 낮추면, 더 많은 AI 기능이 무료로 제공되거나, 더 낮은 구독료로 이용 가능해지는 미래가 가까워집니다. 칩 하나의 발표가 우리 일상의 AI 경험을 바꿀 수 있다는 점에서, MTIA 로드맵은 계속 주목해야 할 이야기입니다.

댓글 남기기