세레브라스 IPO 신청은 4조 트랜지스터 WSE-3 칩과 100억 달러 이상 OpenAI 계약, AWS 파트너십으로 AI 하드웨어 시장의 새 장을 열었다. NVIDIA가 80-95% 점유율을 가진 시장에서 웨이퍼 스케일 접근으로 메모리 병목을 해결한 사례다. AI 칩 시장은 2024년 530-650억 달러에서 2030년 2000-3000억 달러로 성장할 전망이다. 창업자에게는 전문화된 아키텍처, 풀스택 개발, 10배 성능 우위 확보가 생존 전략임을 보여준다.
웨이퍼 스케일이 바꾸는 AI 컴퓨트 패러다임
2016년 설립된 Cerebras는 기존 GPU 클러스터의 상호연결 병목을 근본적으로 제거하는 웨이퍼 스케일 엔진(WSE)을 개발했다. 최신 WSE-3는 단일 칩에 4조 개 트랜지스터, 90만 개 AI 최적화 코어, 44GB 온칩 SRAM을 집적했다. 이는 NVIDIA H100의 L2 캐시(약 80MB)와 비교해 압도적인 메모리 용량으로, 대형 모델 학습 시 메모리 바운드 작업에서 10-20배 속도 향상을 제공한다. 냉장고 크기의 CS-3 시스템 하나가 수백 개 GPU 클러스터와 맞먹는 성능을 내는 것은 단순한 하드웨어 혁신이 아니라 아키텍처 철학의 승리다.
창업자 관점에서 이 접근은 ‘일반성 vs 특수성’ 딜레마에 대한 답이다. Etched처럼 Transformer 전용 ASIC에 모든 것을 걸거나, Groq처럼 추론에 특화된 것과 달리 Cerebras는 초대형 모델(70B+ 파라미터) 학습이라는 명확한 니치에서 승부했다. 이 선택은 자본 집약적(테이프아웃 비용만 3000-1억 달러)이었지만, OpenAI와의 100억 달러 규모 계약으로 결실을 맺었다.
시장 규모와 NVIDIA 의존성의 현실
2024년 AI 가속기 시장 규모는 530-650억 달러로 추정되며, 2030년까지 2000-3000억 달러로 성장할 전망(CAGR 26-35%). NVIDIA는 2025 회계연도 2분기에만 데이터센터 매출 263억 달러를 기록하며 AI 훈련 시장의 80-95%를 장악했다. 그러나 데이터센터 전력 수요가 2030년 미국 전체 전력의 8-10%에 달할 것으로 예상되면서, 전력 효율과 TCO(총소유비용)가 새로운 경쟁 무기가 됐다.
Google TPU, AWS Trainium, Microsoft Maia 등 하이퍼스케일러들의 자체 칩 개발은 NVIDIA 의존도를 낮추려는 움직임이다. Cerebras가 AWS 데이터센터에 직접 칩을 공급하는 계약을 따낸 것은 이러한 흐름의 상징적 사건이다. 또한 SambaNova(10억 달러 이상 펀딩), Groq(2024년 6.4억 달러 추가 투자, valuation 28억 달러), Lightmatter(광학 컴퓨팅, 4억 달러 이상 투자) 등 스타트업들이 각자 다른 접근으로 시장에 도전하고 있다.
풀스택 소프트웨어와 코디자인의 힘
하드웨어만으로는 승산이 없다. Cerebras가 가장 공을 들인 것은 PyTorch 모델을 최소 수정으로 실행할 수 있는 컴파일러와 커널 라이브러리 개발이었다. 이는 OpenAI와의 협력이 단순한 공급 계약이 아닌 공동 설계(co-design) 단계까지 나아갔음을 의미한다. 모델 아키텍처와 하드웨어를 동시에 최적화하는 능력이 미래 경쟁력의 핵심이다.
창업자들이 주목해야 할 점은 ‘인터커넥트 손실 20-40%‘를 제거한 기술적 우위가 실제 고객에게 어떻게 전달되느냐이다. Cerebras는 액체 냉각 솔루션까지 자체 개발하며 인프라 전반을 해결했다. 이는 하드웨어 스타트업이 반드시 풀스택으로 가야 하는 이유를 보여준다.
창업자에게 주는 전략적 시사점
첫째, ‘킬러 워크로드’를 명확히 정의하라. 모든 것을 잘하려는 대신, 초대형 모델 학습이나 10ms 이하 지연 추론, 특정 과학 컴퓨팅처럼 구체적인 니치에서 10배 우위를 만들어야 한다. 둘째, 소프트웨어 usability를 초기부터 최우선으로 설계하라. CUDA 모트를 넘어설 수 있는 유일한 길이다.
셋째, 하이퍼스케일러와의 기술적 파트너십을 VC 이상으로 평가하라. Cerebras의 AWS·OpenAI 계약은 전통적 벤처캐피털보다 더 큰 가치를 창출했다. 넷째, 메모리 계층 구조를 가장 중요한 타깃으로 삼아라. 앞으로 3년간 AI 칩의 승패는 온칩 메모리와 대역폭에서 갈릴 가능성이 높다.
마지막으로, 자본 소모가 극심한 만큼 정부 지원(한국의 반도체 메가클러스터 정책, CHIPS Act 등)과 전략적 투자자를 적극 활용해야 한다. TSMC 생산 라인 확보 경쟁도 치열하다는 점을 명심하라.
Cerebras의 IPO는 NVIDIA 독점을 깰 수 있는 대안이 존재한다는 증거다. 그러나 성공 확률은 극히 낮고, 요구되는 실행력은 압도적이다. 진정한 창업자는 이 현실을 직시하면서도 ‘특정 워크로드에서 10배更好’라는 목표를 끝까지 추구해야 한다. 다음 세대 AI 인프라 스타트업은 전력 효율, 메모리 혁신, 산업별 특화에서 승부를 걸어야 할 것이다.