최근 인공지능(AI) 산업의 시장 지형은 한 기업의 독점 체제와 그에 대한 도전의 역사로 설명할 수 있다. 엔비디아가 AI 시대의 ‘초고속 데이터 고속도로’로 독점적으로 자리 잡았던 사이, AMD를 포함한 주요 IT 기업들이 협력해 만든 UALink(울트라 가속기 링크) 기술이 서서히 각광받고 있다. 2025년 하반기, 오픈AI의 대규모 투자는 이 기술을 단순한 개방형 표준에서 ‘산업 대전환’의 씨앗으로 바꾸고 있다. 오늘은 UALink가 어떤 기술이고, 왜 지금까지 엔비디아 독점을 깨기는 어려웠으며, 오픈AI의 변화가 왜 시장을 흔드는 신호탄이 되는지 깊게 살펴본다.
1. UALink란 무엇인가?

UALink는 초대형 AI 데이터센터에서 수천~수만 개의 AI 가속기, 서버, 메모리 등을 초고속·저지연으로 연결하는 개방형 인터커넥트 규격이다. 쉽게 비유해 보자면, 엔비디아의 NVLink가 ‘엔비디아 차만 달릴 수 있는 고속도로’라면, UALink는 ‘모든 자동차가 달릴 수 있도록 만든 국가표준 고속도로’다.
주요 특징
- 개방형 표준: AMD, 인텔, 구글, 마이크로소프트, 메타 등 글로벌 기업들이 ‘UALink Promoter Group’이라는 이름으로 컨소시엄을 결성해 기술을 공동 개발한다.
- 확장성: 다양한 제조사의 칩과 서버가 연결될 수 있어, 공급망 리스크와 비용을 분산할 수 있다.
- 상호운용성: 엔비디아의 폐쇄형 NVLink 구조 한계를 넘어, 진정한 멀티벤더 환경을 구현할 수 있다.
2. 지금까지 UALink가 잘 안됐던 이유
엔비디아 AI GPU와 NVLink는 시장의 디폴트, 사실상의 표준이었다. UALink가 아이디어만으로 멈춰있던 시간 동안, 무엇이 시장 진입을 어렵게 했을까?
(1) 엔비디아 생태계의 강력함
엔비디아는 CUDA라는 소프트웨어 생태계로 전 세계 개발자·연구자들을 묶었다. 수십 년간 쌓아온 코드 자산과 툴, 그리고 NVLink의 속도와 신뢰성까지—그 자체가 이미 ‘뽑기만 하면 되는 안정된 플랫폼’이었다. 새로운 기술에 대한 진입 장애물이 너무 높았다.
(2) 실제 구현과 레퍼런스 부족
UALink의 명세서와 백서가 있었지만, 대규모 상용 제품(특히, 클라우드에서 대량 채택)이 없었다. “실제 써보고 문제없이 작동했다”는 사례와 신뢰가 부족했다. 엔비디아 GPU는 이미 데이터센터, 클라우드 벤더, 대형 AI 연구소에서 검증을 마쳤지만, UALink는 ‘실험적’ 영역에 머물렀다.
(3) 느린 컨소시엄 의사결정
개방형 표준의 강점은 ‘다 함께 만든다’는 점이지만, 이는 동시에 ‘모두의 합의가 필요하다’는 약점이기도 하다. 각자의 이해관계와 기술적 목표가 달라 상용화 속도가 엔비디아 단독 제품보다 느릴 수밖에 없었다.
(4) 성능 및 최적화 불확실성
엔비디아 NVLink가 최적화된 하드웨어·소프트웨어를 패키지로 공급했다면, UALink는 초기에는 성능, 대역폭, 지연시간 등에서 신뢰성 부족 논란이 있었다. AI 학습에서는 칩 간 연결 속도가 전체 효율을 좌우하기 때문에, “이게 정말 대규모에서 통할까?”라는 우려가 컸다.
(5) 시장의 관성, 그리고 공급망 현실
2023~2024년 AI 시장은 엔비디아 GPU 쏠림 현상이 극심했다. ChatGPT 열풍, 초거대 언어모델 학습 수요 폭증으로 기업들은 ‘검증된’ 엔비디아 솔루션에 몰릴 수밖에 없었다. 새 표준을 시도할 여유가 없었다.
3. 오픈AI가 바꾸는 게임
2025년 하반기, 오픈AI가 UALink에 공식적으로 참가하고, 대규모 투자를 약속했다는 뉴스가 퍼지기 시작했다. 오픈AI는 GPT-4, 5 등 세계 최대 AI 워크로드 운영 기업이자, 가장 까다로운 인프라 수요를 가진 고객이다.
(1) 시장의 신뢰를 획득하는 ‘최대 검증자’의 등장
오픈AI처럼 엄청난 규모의 실제 모델을 운영하는 기업이 UALink 기반 환경을 도입한다면, 모든 시장 플레이어 입장에서는 “이건 실전에 통하는 기술”이라는 강력한 보증수표가 된다. 실제로 오픈AI의 실전 도입이 확정되면, “아직 검증되지 않은 기술”이라는 의심이 빠르게 사라진다.
(2) 공급망 다각화·비용 절감의 결정적 계기
엔비디아 H100/B100 공급난, 가격 상승은 이미 AI 산업의 숙명적인 병목이었다. 오픈AI가 UALink와 AMD GPU를 대량 도입하면, 공급망이 다변화되고, 가격도 크게 절감된다. 이는 AI 개발자와 클라우드 서비스 사업자 모두에게 중요한 선택의 기준으로 작용할 것이다.
(3) 소프트웨어 진입장벽 파괴
오픈AI는 CUDA를 넘어 설 수 있는 Triton 등 독자 프레임워크 개발로, UALink에 맞는 소프트웨어 최적화를 직접 진행한다. 오픈AI 자체 프레임워크가 UALink 환경에서 대형 모델을 성공적으로 학습하고, 운영까지 증명하면 글로벌 개발자 커뮤니티의 인식도 바뀐다.
(4) 클라우드 플랫폼의 빠른 확산
마이크로소프트, 구글, 아마존 등 주요 클라우드 기업도 이미 UALink 컨소시엄에 합류했다. 오픈AI가 적극적으로 활용하게 되면, Azure, GCP, AWS 등 주요 클라우드 플랫폼 역시 UALink 기반 인프라 비중을 확대할 수밖에 없다. 연쇄적으로 생태계가 확대된다.
(5) 하드웨어·소프트웨어의 완벽한 콜라보
AMD는 MI300·MI350 시리즈 신제품을 본격 양산하며 UALink 3.0이 완전히 구현된 하드웨어를 선보이고 있다. 오픈AI의 실사용·최적화 노하우가 여기에 더해지면, “표준만 있는 기술”이 “대규모 상용 인프라를 구성할 수 있는 기술”으로 변신한다.
4. 앞으로 무엇이 달라질까?
선택지의 확대
AI 인프라 구축에 있어 “엔비디아 아니면 답이 없다”던 시장 구조가 깨진다. 대형 모델을 실제로 돌릴 수 있는, 비용도 합리적인, 공급망도 안전한 대안이 처음으로 시장에 등장한다.
기술 혁신과 가격 경쟁
엔비디아의 독점 구조가 균열나면, 가격도 조정되고, 혁신 속도도 빨라진다. AMD+UALink 조합의 실전 도입이 늘면 엔비디아 역시 더 빠른 혁신과 공급 체계 개선에 나설 것이다.
산업 전체의 건강성
다양한 벤더가 표준을 공유할 때 산업 전체의 효율과 안정성이 높아진다. UALink는 개방형 표준으로 클라우드, 하드웨어, 소프트웨어 모두가 ‘협력과 경쟁’을 동시에 할 수 있는 건강한 생태계를 유도한다.
개발자와 기업 모두에게
초기에는 대형 고객(오픈AI, 마이크로소프트 등) 중심 확산이 이루어지겠지만, 이후에는 더 많은 중소 AI 스타트업, 연구기관, 각국 정부도 저렴한 비용, 다양성, 호환성 측면에서 UALink 기반 AMD GPU를 선택할 가능성이 높다.
결론
UALink와 오픈AI의 전략적 협력은 단지 새로운 기술 표준의 등장이나, 한 기업의 파격적인 투자를 넘어, AI 인프라 시장 전체의 판도 변화를 의미한다. 이제 AI 인프라의 ‘고속도로’는 단일 기업이 독점하는 폐쇄형 구조에서, 다양한 기업들이 참여하는 개방형·확장형 네트워크로 전환되고 있다.
과거 UALink가 ‘가능성’에 머물렀다면, 오픈AI와 글로벌 클라우드 빅3의 본격 참여와 하드웨어·소프트웨어 동반성숙이 맞물려 지금은 ‘현실적인 대안’의 시대가 시작되고 있다. 앞으로 1~2년 내, AI 대형모델 인프라를 논할 때 UALink가 빠지지 않는 키워드가 될 것이며, 이는 개발자, 기업, 투자자 모두에게 새로운 기회의 문을 열 것이다.
“엔비디아만이 답이던 시대는 끝나가고 있습니다. 그 다음 고속도로의 이름, 바로 UALink입니다.”