결론: UALink와 오픈AI가 만든 파괴적 변화, 그리고 Cisco의 도약

오픈AI의 전략적 투자 확대와 UALink 컨소시엄의 시장 영향력 증대는 Cisco의 데이터센터 사업 부문에 장기적 성장 모멘텀을 제공한다.
  • 오픈AI가 ‘공익기업(PBC)‘으로 전환하고 약 $1.4조 규모의 대규모 인프라 투자를 발표하면서 AI 워크로드가 폭발적으로 증가하고 있다.
  • AI 인프라의 진화에 '개방형 연결 표준'인 UALink가 대세로 자리잡으며, 네트워크 인프라의 유연성과 확장성이 최우선 가치로 부상한다.
  • 핵심 연결 및 보안, 최적화된 네트워크 아키텍처가 불가결해지면서, 시스코(Cisco)는 경쟁 및 파트너십 양면에서 수혜가 기대된다.

1. 오픈AI의 PBC 전환과 $1.4조 인프라 투자 계획

2025년 10월, 오픈AI는 기존 비영리 모체에서 ‘공익·영리 병행’ PBC(Public Benefit Corporation)로 전환하며, 신규 투자 유치와 데이터센터 확장에 본격 나섰다. CEO 샘 알트만은 약 $1.4조 규모의 대규모 인프라 투자 계획을 공개했으며, 이는 약 30기가와트(GW)의 데이터센터 용량에 해당한다. 이는 미국 가정 약 750만 가구를 공급할 수 있는 규모로, 단순한 소프트웨어 회사를 넘어 'AI 인프라 유틸리티'로의 진화를 의미한다.

오픈AI의 계획에 따르면 장기적으로는 주당 1기가와트씩 추가할 수 있는 기술 및 재무적 체계 구축을 목표로 하고 있으며, 이를 위해 AMD, Broadcom, NVIDIA, Oracle 등과의 전략적 파트너십을 강화하고 있다. 이러한 규모의 인프라 확충은 전 산업 밸류체인에 걸쳐 네트워크, 스위칭, 라우팅, 스토리지 장비 수요를 급증시키고 있다.

엔비디아 독점의 NVLink에 대응하는 UALink 컨소시엄(AMD, Broadcom, Cisco, Google, HPE, Intel, Meta, Microsoft 등 포함)이 빠른 속도로 개방형 AI 상호연결 표준을 확립했다. 2025년 4월 공식 출범한 UALink 1.0 표준은 다음과 같은 혁신적 특징을 제공한다:

  • lane당 200Gbps 처리량 (4중 lane 시 양방향 800Gbps)
  • 왕복 지연시간 1마이크로초 미만 (100~150나노초 포트 간 지연)
  • 단일 패브릭에서 최대 1,024개 가속기 연결 지원
  • 표준 Ethernet SerDes 기반으로 상호운용성 극대화

이는 다양한 하드웨어, 소프트웨어 벤더가 데이터센터 인프라에 자유롭게 참여할 수 있게 하며, 신생 AI 기업들도 인프라를 비용 효율적으로 확장할 수 있게 하는 진정한 '개방형 생태계'를 창출했다.


Cisco의 전략적 포지셔닝과 성장 포인트

1. 폭발적 AI 인프라 수요 확보 - 실적으로 증명된 성과

Cisco는 이미 실제 수익 성과로 AI 인프라 시장 주도권을 증명했다.

2025 회계연도 AI 인프라 주문 현황

  • FY 2025 총 AI 인프라 주문: $2.0+ 억 달러 (초기 목표 $1.0억 달러의 2배 이상)
  • Q4 FY 2025 단계: $800M 주문 (Q3의 $600M에서 증가)
  • 주문 구성: 약 2/3이 시스템, 1/3이 광학(Optics)

이는 단순한 수익이 아니라 webscale 고객 5개사가 Cisco의 제품을 채택하고 있으며, 상위 6개 webscaler 중 3개가 3자리 성장률을 기록했다는 의미이다. 이 정도 규모는 NVIDIA가 3개월(Q4 FY 2025)에 약 50억 달러의 AI 네트워킹 매출을 기록하는 것과 비교하면, Cisco가 차기 5년간 50~100배 성장의 베이스를 갖춘 초기 단계이다.

2026 재정연도 성장 전망

  • FY 2026 매출 전망: $59.0~$60.0억 달러 (전년 대비 +5%)
  • AI 인프라 사업 비중 확대: 이미 $1.0억 달러 이상이 인식 수익으로 변환
  • 첫 분기(Q1 FY 2026) 매출 예상: $14.65~$14.85억 달러

Cisco의 신중한 가이던스에도 불구하고, AI 인프라 주문 탄성(elasticity)은 여전히 공급 제약, 수요 제약이 아닌 상황이다. 즉, Cisco가 충분한 Silicon One 칩과 스위칭 용량을 공급할 수 있다면 수요는 훨씬 높을 가능성이 있다.

2. RoCEv2를 통한 AI 클러스터 최적화 - 고성능 저지연 통신의 핵심

AI 데이터센터에서 GPU 간 고속 통신은 모델 학습 성능을 결정하는 중요한 요소이다. Cisco는 RoCEv2 (RDMA over Converged Ethernet v2) 기술을 통해 이 문제를 해결하고 있다.

RDMA 기술의 중요성

RDMA(Remote Direct Memory Access)는 고성능 컴퓨팅(HPC) 및 스토리지 네트워킹에서 오랫동안 사용되어온 검증된 기술이다. RDMA의 핵심 장점은 다음과 같다:

  • 직접 메모리 접근: CPU를 거치지 않고 GPU 메모리 간 직접 데이터 전송
  • 초저지연(Ultra-Low Latency): 운영체제 네트워크 스택 우회로 마이크로초 단위 지연 달성
  • 높은 처리량(High Throughput): 네트워크 어댑터 하드웨어에서 오프로드된 전송으로 최대 효율성 구현
  • CPU 오버헤드 감소: CPU 사용률을 최소화하여 AI 모델 학습에 집중 가능
  • 전력 효율성: CPU 부하 감소로 인한 에너지 절감

RDMA를 통한 GPU 메모리 직접 통신

RoCEv2의 등장과 표준화

초기 RDMA 구현은 InfiniBand (IB)를 중심으로 발전했다. InfiniBand는 고성능 컴퓨팅 환경에 이상적이었으나, 엔터프라이즈 데이터센터에서는 별도의 네트워크 인프라 구축 비용이 대가였다.

이 문제를 해결한 것이 RoCEv2 (RDMA over Converged Ethernet v2)이다:

RoCE 진화 과정

  • RoCE v1 (2010년): Layer 2 동일 네트워크 내에서만 작동
  • RoCEv2 (2014년): IP 라우팅 기반 지원, 광범위한 네트워크 확대 가능

RoCEv2는 InfiniBand 전송 프로토콜을 Ethernet, IP, UDP 헤더로 캡슐화하여, 기존 Ethernet 네트워크 인프라 위에서 RDMA의 모든 장점을 활용할 수 있게 한다. 이는 엔터프라이즈 데이터센터에서 별도의 네트워크 구축 없이도 고성능 AI 인프라를 구현할 수 있다는 의미이다.

RoCEv2의 기술적 요구사항

RoCEv2가 최적의 성능을 발휘하려면 다음 조건을 만족해야 한다:

무손실 네트워크(Lossless Fabric)
  • ECN (Explicit Congestion Notification): 네트워크 혼잡을 사전에 감지하여 송신자에게 알림
  • PFC (Priority Flow Control): 우선순위 기반 혼잡 제어로 중요 트래픽 보호

Cisco의 솔루션

  • Silicon One 칩에 내장된 PFC, ECN 기술
  • Nexus 시리즈 스위치의 통합 큐잉 및 혼잡 관리
  • AI 워크로드에 최적화된 QoS(Quality of Service) 프로필

AI 클러스터에서의 GPUDirect RDMA 활용

GPUDirect RDMA는 NVIDIA GPU 간 RoCEv2를 통한 메모리 직접 통신을 의미한다. 이를 통해:

  • 분산 학습(Distributed Training) 성능 향상: 여러 GPU 간 그래디언트 동기화 지연 최소화
  • 집합통신(AllReduce) 최적화: 대규모 모델 학습에서 병목 현상 제거
  • 확장성(Scalability) 극대화: 수백~수천 개 GPU 클러스터의 효율적 관리

실제로 Meta, Google 등 대형 AI 회사들은 RoCEv2 기반 데이터센터 네트워킹을 표준으로 채택하고 있으며, Cisco가 이들의 주요 공급자이다.

3. Silicon One G200/G202 - AI 최적화 네트워킹 칩의 경쟁 우위

Cisco의 Silicon One G200/G202 ASIC은 AI 워크로드 최적화 설계로, 다음과 같은 기술적 장점을 제공한다:

핵심 성능 지표

  • 처리량: 51.2 Tbps (이전 세대 대비 대폭 향상)
  • 32K 400G GPU 클러스터를 2계층 네트워크로 구성 가능
  • 스위치 40% 감소, 광학 50% 감소, 네트워크 계층 33% 감소

AI/ML 작업 최적화

  • 작업 완료 시간(Job Completion Time) 1.57배 단축 (Enhanced Ethernet 활용)
  • 극저지연 + 고성능 로드 밸런싱: AI 분산 학습 작업의 동기화 시간 최소화
  • 집합통신(AllReduce) 최적화: 대규모 모델 학습에서 병목 현상 제거

Cisco 백엔드 네트워크 아키텍처

400Gbps 백엔드 네트워크 아키텍처

위 아키텍처는 Cisco의 대규모 AI 클러스터 설계 원칙을 보여준다:

계층 구조

  • Spine 계층: 8개의 400Gbps 포트 스위치로 전체 클러스터 상호 연결
  • Leaf 계층: 각 Leaf당 4개의 400G 포트로 Spine 연결 (Oversubscription 제거)
  • Server 계층: 4개의 400G 포트로 GPU 서버 연결

이 구조의 장점

  • Non-blocking Fabric: 모든 서버 간 Full Bandwidth 통신 가능
  • 예측 가능한 성능(Deterministic Performance): 모든 GPU가 동일한 네트워크 성능 보장
  • 선형 확장성: 클러스터 크기 증가 시에도 성능 저하 없음

이러한 아키텍처는 Meta, Google, AWS 등 주요 webscaler가 이미 대규모 배포 중이며, 용량 제약으로 인한 공급 부족이 Cisco의 가장 큰 “좋은 문제"가 되었다.

4. NVIDIA와의 전략적 파트너십: Secure AI Factory

2025년 3월 Cisco와 NVIDIA는 Cisco Secure AI Factory with NVIDIA를 발표했으며, 이는 단순한 기술 협력을 넘어 엔터프라이즈 AI 시장의 표준 아키텍처로 자리잡고 있다.

주요 협력 영역

  • NVIDIA Spectrum-X Ethernet 통합: Cisco의 Nexus 스위치와 NVIDIA GPU의 저지연 고속 연결
  • Secure AI Factory 검증 레퍼런스 아키텍처: 규제 및 보안을 고려한 기업용 AI 인프라 표준
  • 통합 보안: Cisco Hypershield + Cisco AI Defense로 AI 워크로드 전체 계층 보호

2025년 10월 발표 - N9100 데이터센터 스위치

  • NVIDIA Spectrum-X 기반 첫 번째 파트너 개발 스위치
  • Neocloud 및 Sovereign Cloud 배포용 NVIDIA Cloud Partner 준수 아키텍처

이 협력은 Broadcom, NVIDIA 같은 기존 경쟁자들과의 차별화를 만들며, 엔터프라이즈 고객들이 신뢰할 수 있는 폐쇄된 보안 환경과 개방형 표준의 균형을 제공한다.

UALink 등장으로 데이터센터 내 가속기, 스토리지, 네트워크 간 '개방형 고성능 연결'이 시장 표준화되는 추세가 가속화되고 있다. Cisco는 UALink 컨소시엄의 창립 멤버로서 다음과 같은 이점을 얻는다:

직접적 수혜

  • AI 스위치/라우터/인터커넥트 시장 확장: 다중 하드웨어 환경에서 상호운용성 리더십 강화
  • 장기적 AI 규모·복잡도 증가에 따른 표준 기반 다중 벤더 지원 확대
  • Sovereign Cloud 시장 진입장벽 하락: 중동, 동남아 등 개발도상국의 자체 AI 인프라 구축 촉진 → Cisco 네트워크 솔루션 수요 급증

간접적 수혜

  • WebScale 고객들의 공급 다변화 추구: NVIDIA 의존도 감소로 Cisco 채택 시급성 높아짐
  • 신생 AI 스타트업 및 중소 데이터센터 사업자들의 인프라 진입 장벽 하락: Cisco 네트워킹 지원 범위 확대

6. 중동 Sovereign AI 인프라 - 지정학적 성장 엔진

Cisco는 오픈AI 투자와 동시에 중동의 Sovereign Cloud 시장을 선제적으로 확보하고 있다.

주요 프로젝트

Saudi Arabia - HUMAIN Partnership (2025년 5월)

  • 리야드, 제다 지역 Sovereign Cloud 데이터센터 구축
  • Silicon One 기반 AI 패브릭: 비차단형(non-blocking) 아키텍처로 1PB/s 대역폭 지원
  • 국가 데이터 보호: 해외 데이터 이동 없이 국내 데이터셋 학습 가능
  • 사우디 비전 2030 연계: 50만명의 AI 인재 양성 목표 지원
사우디는 2030년까지 AI에 $40B+ 투자 계획 중이며, Cisco는 이 시장의 네트워킹 표준 공급자로 선정된 상태이다.

UAE - G42 Partnership (2025년 10월)

  • 대규모 AI 클러스터 구축: AMD의 MI350X GPU 기반
  • Regulated Technology Environment (RTE) 통합: 규정 준수, 보안, 투명성 보장
  • 미-UAE AI 협력 가속화: 지정학적으로 서방진영 AI 인프라 표준 강화

7. 소프트웨어/구독 기반 사업 모델 고도화 - 지속성 있는 성장

Cisco는 단순 하드웨어 회사가 아니라 소프트웨어 플랫폼 회사로의 전환을 지속 중이다.

Splunk 인수 (2024년 $28B)

  • 실시간 데이터 분석 플랫폼 획득
  • AI 인프라 운영 데이터의 가시성·최적화 솔루션 제공
  • AI 보안 위협 탐지·대응 강화

소프트웨어·구독 매출 비중

  • 총 매출의 54% 이상이 반복 수익(Recurring Revenue)
  • 하드웨어 사이클 의존도 감소 → 예측 가능한 성장 모델로 전환

이 구조는 AI 하드웨어 사이클의 변동성을 상쇄하고, 장기 고객 관계 기반의 높은 수익성(High Margin) 사업으로 전환을 의미한다.


오픈AI 투자의 구체적 영향: 네트워크 인프라 수요 산정

대규모 데이터센터 구축에 따른 네트워킹 비용 구조

오픈AI의 $1.4조 인프라 투자 중 네트워킹 장비 비중은 일반적으로 다음과 같다:

데이터센터 구성 요소 비용 분배

  • 컴퓨팅 (GPU/CPU): 50~60% ($700~840B)
  • 전원·냉각 인프라: 15~20% ($210~280B)
  • 네트워킹·스토리지: 15~20% ($210~280B)
  • 시설·기타: 5~10% ($70~140B)

이 중 네트워킹 인프라 ($210~280B) 시장에서 Cisco의 점유율:

  • 스위칭/라우팅: Cisco, Arista, Broadcom 3사 중심
  • 광학 모듈: Cisco, NVIDIA, Broadcom 중심
  • 현재 Cisco 시장점유율: 약 30~35% 추정 (기존 관계사 기반)

즉, 오픈AI 단독 프로젝트만으로도 Cisco에 $60~100B 규모의 잠재 수익 기회가 발생할 수 있다. 이는 현재 Cisco 연간 매출의 1~2배에 해당하는 규모이다.

대형 클라우드 제공자들의 AI 인프라 투자 경쟁

오픈AI의 움직임이 Microsoft, AWS, Google 등 기존 클라우드 기업들의 AI 인프라 투자 가속화를 촉발했다:

  • Microsoft: OpenAI와의 재정렬을 통해 자체 데이터센터 확충 가속화
  • AWS: 자체 칩(Trainium, Inferentia) 기반 AI 인프라 확대
  • Google: TPU 클러스터 대규모 확충 추진

총 3사의 2025년 자본지출(CapEx) 예상: 약 $80~90B (전년 대비 +50~60%)

이는 전체 데이터센터 네트워킹 인프라 시장 규모를 연 50~70% 증가시킬 수 있으며, Cisco 같은 공급자에게 구조적 강풍(Tailwinds)을 제공한다.


성장 시나리오와 주가 잠재력

시나리오 1: 보수적 시나리오 - 현 수준 유지 + 10% 시장점유율 확대

가정

  • FY 2026~2028 AI 인프라 수익 연평균 40% 성장
  • 전체 매출 성장률 5~7%
  • 운영이익률 22~25% 유지

결과

  • 2028년 매출: $68~72B
  • 2028년 EPS: $2.95~$3.20
  • 목표 주가 (PER 30배): $88.50~$96

평가: 보수적이나 현 매출 성장 추이 대비 합리적이다.

가정

  • FY 2026~2028 AI 인프라 수익 연평균 60% 성장
  • 전체 매출 성장률 8~10%
  • 운영이익률 23~26% 달성 (Splunk 통합 완성)
  • 중동 Sovereign Cloud 시장에서 시장점유율 40%+ 확보

결과

  • 2028년 매출: $80~88B (+40~55%)
  • 2028년 EPS: $3.60~$4.15
  • 목표 주가 (PER 35배): $126~$145

평가: AI 인프라 시장 성장과 Cisco의 경쟁력을 반영한 합리적 시나리오이다.

가정

  • FY 2026~2028 AI 인프라 수익 연평균 100% 성장
  • 전체 매출 성장률 12~15%
  • 운영이익률 25~28%
  • Cisco가 OpenAI, G42 등 주요 프로젝트의 “필수 인프라 파트너"로 자리잡음
  • AI 인프라 수익이 전체 매출의 15~20% 차지

결과

  • 2028년 매출: $95~105B (+70~85%)
  • 2028년 EPS: $4.60~$5.40
  • 목표 주가 (PER 40배): $184~$216

평가: 높은 성장이나 오픈AI, 중동 주도 프로젝트의 가시성 증가 시 가능한 시나리오이다.


위험 요인 및 고려사항

1. 경쟁 심화

  • Broadcom, NVIDIA: AI 네트워킹 시장 중심 이동으로 기존 경쟁자 강화
  • 새로운 진입자: Marvell, Juniper 등 AI 전문 칩 개발 진행 중

2. 기술 표준화 지연

  • UALink 채택 속도: 현재 계획대로 진행되지 않을 수 있음
  • NVIDIA Spectrum-X와의 공존: InfiniBand 중심 클라우드 vs. Ethernet 기반 선택의 딜레마

3. 공급망 제약

  • Silicon One 칩 공급 부족: TSMC 용량 제약 시 Cisco의 수익 성장 제약 가능성
  • 광학 모듈, 포트 공급: 수요 급증 시 공급 병목 가능성

4. 지정학적 리스크

  • 중동 프로젝트 정치 리스크: 중동 정세 악화 시 Sovereign Cloud 투자 지연
  • 미-중 기술 규제: 중국 시장 제외로 인한 잠재 시장 축소

결론: Cisco의 AI 인프라 성장 가능성 평가

Cisco는 단순히 AI 인프라 호황의 수혜자를 넘어, 차세대 AI 데이터센터 표준의 구축자로 자리잡고 있다.

핵심 성공 요인

  1. 기술 리더십: Silicon One의 성능 + RoCEv2를 통한 GPU 직접 통신 최적화 + NVIDIA 협력을 통한 보안/개방성 통합
  2. 시장 타이밍: UALink 표준 확산 시점과 OpenAI 대규모 투자 시점의 동조
  3. 지정학적 이점: 중동 Sovereign Cloud 시장의 선제적 확보
  4. 사업 모델 진화: 소프트웨어/구독 기반으로의 전환으로 수익성 강화

2028년 목표 주가

  • 보수적: $88~$96
  • 기본: $126~$145
  • 공격적: $184~$216

현재 Cisco 주가 대비 3년 연간 수익률 10~25% 추정

결론: Cisco는 AMD, NVIDIA와는 다른 각도에서 AI 인프라 붐의 지속적 수혜자로 주목할 가치가 있으며, 특히 중장기(3~5년) 포트폴리오에 AI 인프라 노출을 원하는 투자자에게 균형잡힌 선택지이다. RoCEv2 기술의 표준화와 Sovereign Cloud 시장의 성장은 Cisco의 장기적 경쟁력을 더욱 강화할 것으로 예상된다.


참고

  1. “OpenAI Wants to Get to $1 Trillion a Year in Infrastructure Spend” - Axios (2025년 10월 28일)
    https://www.axios.com/2025/10/28/openai-1-trillion-altman

  2. “Cisco Reports Fourth Quarter and Fiscal Year 2025 Earnings” - Cisco Investor Relations (2025년 8월 13일)
    https://investor.cisco.com/news/news-details/2025/CISCO-REPORTS-FOURTH-QUARTER-AND-FISCAL-YEAR-2025-EARNINGS/

  3. “Cisco Q4 FY 2025 Delivers Solid Growth With AI and Networking Tailwinds” - Futurum Group (2025년 8월 15일)
    https://futurumgroup.com/insights/cisco-q4-fy-2025-delivers-solid-growth-with-ai-and-networking-tailwinds/

  4. “Cisco and G42 Deepen US-UAE Technology Partnership to Build Secure End-to-End AI Infrastructure in the UAE” - PR Newswire (2025년 10월 28일)
    https://www.prnewswire.com/news-releases/cisco-and-g42-deepen-us-uae-technology-partnership-to-build-secure-end-to-end-ai-infrastructure-in-the-uae-302596515.html

  5. “UALink Consortium Reshapes AI Infrastructure Economics with Open Standard Initiative” - Insights from Analytics (2025년 6월 4일)
    https://www.insightsfromanalytics.com/post/ualink-consortium-reshapes-ai-infrastructure-economics-with-open-standard-initiative

면책 사항: 이 글은 투자 조언이 아닌 일반적인 정보 제공을 목적으로 작성되었습니다. 모든 투자 결정의 책임은 투자자 본인에게 있으며, 작성자는 이로 인한 직·간접적인 손실에 대해 어떠한 책임도 지지 않습니다.