🤖 AI와의 대화

오픈AI, 아마존과 55조 클라우드 계약 : AI 인프라의 '다각화' 본격화

타잔007 2025. 11. 5. 17:17

오픈AI가 마이크로소프트(MS)와의 협력 관계를 유지하면서도 새로운 클라우드 파트너로 아마존웹서비스(AWS)를 선택했다.

이번 계약은 단순한 인프라 확장이 아니라, AI 산업의 클라우드 종속 구조를 재편할 신호탄으로 평가된다.

7년간 55조원 규모… AWS가 '두 번째 기반' 된다

2025년 11월 3일(현지시간), 아마존은 오픈AI와 7년간 380억 달러(약 55조원) 규모의 클라우드 계약을 체결했다고 발표했다.

계약에 따라 오픈AI는 AWS를 통해 엔비디아의 최신 GPU(GB200·GB300) 수십만 개를 사용할 수 있다. 이는 약 1기가와트(GW) 규모의 컴퓨팅 전력을 확보하는 수준으로, 2026년 말까지 전면 배치될 예정이다.

 

MS 애저(Azure) 독점 체제를 해제한 직후 이루어진 이번 계약은 오픈AI의 인프라 다각화 전략을 분명히 보여준다.

오픈AI는 이미 구글·오라클과도 각각 약 3000억 달러, 2500억 달러 규모의 협력 관계를 맺은 상태다.

이제 AWS까지 가세하면서 오픈AI는 클라우드 빅 3을 모두 파트너로 확보하게 됐다.

오픈AI의 의도 : "안정적 컴퓨팅 확보"

샘 알트먼 CEO는 성명에서 이렇게 밝혔다.

"프런티어 AI를 확장하려면 대규모의 안정적인 컴퓨팅이 필요하다. AWS와의 파트너십은 차세대 AI 시대를 이끌 광범위한 컴퓨팅 생태계를 강화할 것이다."

 

오픈AI의 대형 모델들, 예를 들어 GPT 시리즈나 최근 공개한 동영상 생성 모델 Sora는 천문학적 규모의 연산 능력에 의존한다.

모델을 학습시키는 데도, 실시간으로 서비스하는 데도 엄청난 컴퓨팅 파워가 필요하다.

따라서 단일 클라우드에 종속되면 공급 차질이 곧 서비스 리스크로 이어진다.

 

이번 계약은 그런 위험을 분산하기 위한 전략으로 해석된다.

MS Azure만 사용하다가 문제가 생기면 ChatGPT 서비스 전체가 마비될 수 있다. 하지만 AWS, Google Cloud, Oracle까지 확보해 두면 한 곳에 문제가 생겨도 다른 곳으로 우회할 수 있다.

컴퓨팅 안정성 확보가 핵심이다.

아마존의 전략적 이득 : "AI 클라우드 경쟁 복귀"

AI 클라우드 시장에서 AWS는 최근 MS와 구글에 비해 AI 특화 서비스 측면에서 뒤처졌다는 평가를 받아왔다.

MS는 오픈AI와의 독점 파트너십을 통해 'Azure AI' 브랜드를 강화했고, 구글은 자체 AI 모델과 TPU 칩으로 차별화를 꾀했다. 반면 AWS는 상대적으로 AI 관련 뉴스에서 존재감이 약했다.

 

이번 오픈AI 계약은 그러한 이미지를 단숨에 반전시켰다.

AWS는 엔비디아의 최신 GPU를 자체 데이터센터 클러스터에 배치해 ChatGPT의 실시간 응답과 차세대 모델 학습을 모두 지원하게 된다. 이로써 AWS는 'AI 중심 클라우드 기업'으로서의 위상을 다시 확보했다.

 

시장도 즉각 반응했다. 발표 당일 아마존 주가는 4% 상승하며 사상 최고가를 경신했고, 시가총액이 하루 만에 1400억 달러(약 201조 원) 증가했다. 단일 계약 발표로 이 정도 주가 상승은 흔치 않은 일이다.

특히 흥미로운 점은 아마존이 이미 오픈AI의 최대 경쟁사인 Anthropic의 주요 투자자라는 사실이다.

아마존은 Anthropic에 총 80억 달러를 투자했고, 인디애나주에 110억 달러 규모의 Anthropic 전용 데이터센터 단지를 건설 중이다. Anthropic 역시 AWS를 사용해 '클로드(Claude)' 모델을 학습하고 있다.

 

따라서 이번 계약으로 아마존은 두 경쟁 AI 기업, 즉 오픈AI와 Anthropic을 동시에 품는 구도가 완성됐다.

AWS 입장에서는 누가 이기든 자신들이 이기는 셈이다. 일종의 'AI 슈퍼마켓' 전략이라고 볼 수 있다.

한편, Anthropic은 곤혹스럽다.

하지만 Anthropic 입장에서는 상황이 그리 유쾌하지 않다.

자신들의 최대 투자자이자 전략적 파트너인 아마존이 최대 경쟁사에게 자신들보다 훨씬 큰 규모의 계약(Anthropic 전용 데이터센터가 110억 달러, 오픈AI는 380억 달러)을 제시한 셈이기 때문이다.

더구나 AWS는 현재 Anthropic 전용으로 개발 중인 커스텀 칩 Trainium에 대해 "오픈AI와 Trainium에 대해서는 현시점에서 세부사항을 제공할 수 없다"고 밝혔다. 이는 오픈AI에게도 Trainium을 제공할 가능성을 시사한다. Anthropic이 차별화 무기로 삼던 AWS의 커스텀 칩 접근권이 경쟁사에게도 열릴 수 있다는 뜻이다.

 

재미있는 건, 샘 알트먼과 Anthropic의 악연이다.

Anthropic의 창업자 Dario와 Daniela Amodei 남매는 원래 오픈AI의 핵심 멤버였다. 2021년 AI 안전성에 대한 의견 차이로 오픈AI를 떠나 Anthropic을 설립했고, "더 안전하고 책임감 있는 AI"를 표방하며 오픈AI의 대항마로 자리매김했다.

그런데 2023년 11월, 샘 알트먼이 오픈AI 이사회에 의해 전격 해고됐을 때 놀라운 일이 벌어졌다. 최근 공개된 법정 증언록에 따르면, 오픈AI 이사회는 샘이 해고된 지 불과 24시간 만에 Anthropic과 합병을 논의했다.

Dario Amodei가 오픈AI의 CEO 자리를 맡는 방향이었다. 다행히(?) 오픈AI 직원 700명의 반발과 실무적 장애물로 무산됐고, 샘은 5일 만에 복귀했다.

그로부터 정확히 2년 후인 지금, 샘 알트먼은 Anthropic의 최대 후원자 AWS와 역대급 계약을 맺었다.

일각에서는 이를 "샘의 복수"라고 해석하기도 한다. 자신을 몰아내고 경쟁사에 넘기려 했던 이들에게, 이제는 자신이 그들의 전략적 파트너를 가져가는 형국이 된 셈이다.

산업적 의미 : "AI 인프라의 균형 이동"

오픈AI의 연속된 대규모 클라우드 계약은 AI 산업에서 하나의 거대 인프라에 의존하는 것이 얼마나 위험한지를 보여준다.

MS는 여전히 오픈AI의 최대 전략적 투자자이자 파트너다. 총 130억 달러를 투자했고, Azure를 통해 오픈AI 모델을 기업 고객들에게 제공하고 있다.

 

하지만 더 이상 독점적 클라우드 제공자는 아니다.

2025년 1월 MS는 오픈AI와의 독점 계약을 종료했고, 최근에는 우선협상권마저 만료됐다. 이제 오픈AI는 원하는 클라우드 제공사를 자유롭게 선택할 수 있다.

 

아마존, 구글, 오라클이 모두 오픈AI의 컴퓨팅 공급망 일부로 편입되며 AI 클라우드 시장의 수평적 경쟁 구조가 강화됐다. 이는 장기적으로 엔비디아 중심의 하드웨어 생태계 확장을 촉진할 가능성이 높다. 클라우드 업체들이 오픈AI라는 거대 고객을 유치하기 위해 경쟁적으로 엔비디아 GPU를 대량 구매하고 있기 때문이다.

 

또 하나 주목할 점은 전력 문제다.

AI 데이터센터는 엄청난 전력을 소비한다.

MS의 CEO 사티아 나델라는 최근 "문제는 컴퓨팅 용량이 아니라 전력"이라고 말했다. 아무리 GPU가 많아도 그것을 돌릴 전기가 없으면 무용지물이다. 오픈AI가 여러 클라우드 업체와 계약을 맺는 이유 중 하나는 각 업체가 확보한 전력 인프라를 최대한 활용하기 위함이기도 하다.

 

결론 : "AI 인프라의 중심이 이동 중이다"

이번 오픈AI–아마존 계약은 AI 산업의 중심축이 '모델 경쟁'에서 '인프라 경쟁'으로 옮겨가고 있음을 보여준다.

몇 년 전만 해도 "누가 더 똑똑한 AI를 만드느냐"가 전부였다. 하지만 이제는 "누가 그 AI를 안정적으로 돌릴 수 있느냐"가 더 중요해졌다.

 

오픈AI는 이제 특정 기업의 고객이 아니라, 모든 클라우드 생태계가 의존하는 핵심 수요처가 되었다. AWS, MS, Google, Oracle 모두 오픈AI를 붙잡기 위해 경쟁하고 있다.

이는 오픈AI의 협상력을 극대화시킨다. 한 곳이 가격을 올리거나 서비스 품질이 떨어지면 다른 곳으로 갈아탈 수 있기 때문이다.

 

결국 AI 시대의 진짜 주도권은 '누가 더 똑똑한 모델을 만들었는가'보다 '누가 더 안정적으로 컴퓨팅을 확보했는가'에 달려 있다. 그리고 지금 오픈AI는 그 게임에서 가장 앞서가고 있다.