AI 소식20 min

Microsoft-OpenAI 독점 끝났다 — AWS가 24시간 만에 OpenAI를 가져갔다

2026년 4월 27일 Microsoft-OpenAI 독점 계약 사실상 해지, 다음날 AWS Bedrock에 OpenAI 제품 3종 출시. Google Anthropic $40B 투자와 맞물려 AI 인프라 동맹이 한 주 만에 완전히 재편됐다.

목차 (15)

2026년 4월 · AI 소식 · GoCodeLab

Microsoft-OpenAI 독점 끝났다 — AWS가 24시간 만에 OpenAI를 가져갔다

2026년 4월 27일, 조용한 발표 하나가 올라왔다. Microsoft가 OpenAI에 대한 '유일한 클라우드 공급자' 지위를 포기한다는 내용이었다. 7년간 이어진 독점 파트너십이 사실상 끝났다. AI 업계가 떠들썩해지기 시작한 건 그 다음날이었다.

4월 28일, AWS가 움직였다. Bedrock에 OpenAI의 GPT-4o, GPT-4.1, o3를 탑재했다. 발표 속도 자체가 준비가 이미 끝나 있었다는 증거였다. Azure만 쓸 수 있었던 OpenAI 모델이 하루 만에 AWS에서도 돌아가기 시작했다.

같은 주, Google은 Anthropic에 $40B 규모 투자를 확정했다. SoftBank는 일본 AI 인프라에 수조 엔을 쏟겠다고 발표했다. 한 주 만에 AI 인프라 동맹 지도가 완전히 바뀌었다. 이 글은 개발자 입장에서 뭐가 바뀌었고 어떻게 대응해야 하는지 정리한 것이다.

핵심 요약
  • 2026년 4월 27일: Microsoft-OpenAI 독점 해제 공식화. Azure는 여전히 파트너, 독점만 끝났다.
  • 2026년 4월 28일: AWS Bedrock에 GPT-4o · GPT-4.1 · o3 출시. us-east-1 우선 가용.
  • Google, Anthropic에 $40B 투자 확정. Vertex AI에서 Claude 독점 제공 조건 포함.
  • SoftBank, 일본 AI 인프라에 수조 엔 투자 발표. 아시아 AI 인프라 재편 시작.
  • 개발자는 이제 Azure 없이도 GPT-4o를 AWS 생태계에서 쓸 수 있다.
  • 멀티클라우드 AI failover 구성이 현실적인 선택지가 됐다.

7년 독점이 끝난 날 — 무슨 일이 있었나

openai.com — blog
openai.com — blog

2019년 7월, Microsoft는 OpenAI에 $1B를 투자했다. 단순 투자가 아니었다. OpenAI의 모든 상업용 API를 Azure를 통해서만 제공하는 계약이 함께 묶였다. 2021년 $2B, 2023년 $10B+를 추가로 투자하면서 관계는 더 깊어졌다. 결과적으로 누군가 GPT 계열 모델을 클라우드에서 쓰고 싶다면 선택지는 Azure 하나뿐이었다.

이 구조에서 Microsoft는 막대한 수혜를 입었다. Azure OpenAI Service의 매출이 매년 두 자릿수 성장률을 기록했다. GPT-4가 공개된 2023년 이후 Azure 매출은 AI 수요에 올라타며 분기마다 사상 최고치를 갱신했다. 개발자 입장에서는 선택지가 없었다. OpenAI 모델을 원하면 Azure를 써야 했다. OpenAI API를 직접 쓰는 방법도 있었지만 엔터프라이즈 계약, SLA, 컴플라이언스가 필요한 기업은 사실상 Azure를 거쳐야 했다.

2026년 4월 27일, 구조가 바뀌었다. Microsoft와 OpenAI는 파트너십을 재편했다. Microsoft는 여전히 OpenAI의 최대 주주로 남지만 '유일한 클라우드 공급자' 독점 조항이 해제됐다. Microsoft 입장에서도 나쁜 거래는 아니었다. OpenAI의 기업가치가 충분히 올라간 시점에서 독점을 풀어 OpenAI가 더 많은 고객에게 닿을 수 있게 하면 오히려 전체 파이가 커진다는 판단이었다. 투자 수익 관점에서 독점보다 성장이 나을 수 있다.

Azure와의 관계 자체는 유지된다. Microsoft는 여전히 Azure를 OpenAI의 기본 인프라 파트너로 운용하고 있다. 달라진 건 독점이다. OpenAI가 이제 AWS, Google Cloud, 다른 클라우드와도 직접 공급 계약을 맺을 수 있게 됐다. 7년 동안 지속됐던 단일 클라우드 파이프라인이 그날로 끝났다. AI 업계 판도가 바뀌는 시점은 보통 이런 조용한 발표에서 시작된다.

24시간 만에 AWS가 움직였다

Microsoft-OpenAI 발표 다음날인 4월 28일, AWS가 Bedrock 업데이트를 공개했다. 타이밍이 우연이 아니었다. AWS는 이미 OpenAI와 물밑 협상을 진행하고 있었고 독점 해제 발표를 기다렸던 것이다. GPT-4o, GPT-4.1, o3 세 모델이 Bedrock 모델 카탈로그에 올라왔다. 첫 출시 리전은 us-east-1이었다.

발표 속도 자체가 메시지였다. 통상적으로 새 모델이 Bedrock에 추가되려면 평가, 안전 검토, 인프라 준비에 수 주가 걸린다. 하루 만에 올라왔다는 건 그 이전부터 준비가 완료돼 있었다는 뜻이다. AWS는 이 기회를 기다리고 있었다. Amazon CEO 앤디 재시는 내부 인터뷰에서 "모든 주요 AI 모델이 Bedrock에서 동작하는 것이 목표"라고 밝혔다. 그 목표의 마지막 빈칸이 OpenAI였다.

연동 방식은 기존 Bedrock과 동일하다. boto3의 bedrock-runtime 클라이언트로 invoke_model을 호출하면 된다. 인증은 IAM 기반이다. API key를 관리할 필요가 없다. AWS 계정만 있으면 IAM 권한 부여 즉시 사용 가능하다. 기존에 Bedrock에서 Claude나 Llama를 쓰던 코드 구조 그대로 OpenAI 모델로 갈아탈 수 있다.

AWS의 계산도 명확하다. Bedrock이 그동안 Claude(Anthropic), Llama(Meta), Titan(Amazon) 위주였는데 여기에 OpenAI가 들어오면 고객 이탈 가능성이 줄어든다. GPT-4o를 쓰고 싶어서 Azure로 갔던 고객이 이제 AWS 안에서 해결할 수 있게 됐다. 경쟁 클라우드로 빠져나가는 수요를 잡는 방어적 전략이면서 동시에 새 고객을 끌어오는 공세적 전략이기도 하다.

Bedrock에 추가된 OpenAI 모델 3종

AWS Bedrock 출시 OpenAI 모델 (2026년 4월 28일 기준)
  • GPT-4o — 멀티모달(텍스트·이미지·오디오). 가장 범용적. 비용과 성능 균형이 좋다.
  • GPT-4.1 — 1M 토큰 컨텍스트. 코딩과 긴 문서 분석에 강하다. GPT-4o보다 저렴하다.
  • o3 — 추론 특화. 수학·과학·복잡한 로직에서 정확도가 높다. 응답이 느리다.

GPT-4o는 범용 모델이다. 텍스트 생성, 이미지 이해, 오디오 처리까지 한 번에 된다. 챗봇, 문서 요약, 이미지 분석이 모두 필요한 서비스에 가장 어울린다. Bedrock에서도 vision 기능은 그대로 동작하며 이미지를 base64로 인코딩해 전달하면 된다. 비용 효율이 GPT-4 시리즈 중 가장 좋아서 고트래픽 서비스에 기본 선택지가 된다. 구조가 단순해서 Bedrock 입문용으로도 적합하다.

GPT-4.1은 코딩에 최적화된 모델이다. 1M 토큰 컨텍스트 창이 핵심이다. 비유하면 페이퍼백 책 10권 분량을 한 번에 읽고 처리하는 독자다. 대형 코드베이스를 통째로 넣고 리팩토링 지시를 내릴 수 있다. 가격이 GPT-4o보다 낮게 책정됐기 때문에 코딩 에이전트 용도로 쓴다면 GPT-4.1이 더 합리적이다. 긴 문서 처리, 법률 계약서 분석, 대규모 코드 리뷰 같은 태스크가 특히 적합하다.

o3는 추론 모델이다. 비유하면 답을 바로 내놓지 않고 머릿속으로 긴 계산을 하고 나서 결론을 내는 수학자다. 복잡한 다단계 논리, 수학 풀이, 코드 버그 원인 분석처럼 "생각이 필요한" 태스크에서 GPT-4o보다 눈에 띄게 정확하다. 대신 응답 시간이 길고 비용이 높다. 배치 처리나 정확도가 속도보다 중요한 파이프라인에 맞다. 실시간 사용자 응답에는 적합하지 않다.

OpenAI on Bedrock — 직접 API 써봤다

직접 boto3로 GPT-4o를 Bedrock에서 호출해봤다. Azure OpenAI와 비교해 달라진 건 인증과 modelId 형식 두 가지뿐이다. 요청 body 구조는 OpenAI Chat Completions 포맷 그대로다. 기존 OpenAI SDK로 짠 프롬프트와 메시지 배열을 그대로 쓸 수 있었다.

# pip install boto3
import boto3
import json

# IAM 역할 또는 ~/.aws/credentials 기반 인증 — API key 불필요
bedrock = boto3.client(
    service_name="bedrock-runtime",
    region_name="us-east-1"
)

# GPT-4o 호출 — body 포맷은 OpenAI Chat Completions 스키마와 동일
response = bedrock.invoke_model(
    modelId="openai.gpt-4o",
    contentType="application/json",
    accept="application/json",
    body=json.dumps({
        "model": "gpt-4o",
        "messages": [
            {
                "role": "user",
                "content": "AWS Bedrock에서 GPT-4o 동작 확인. 짧게 답해라."
            }
        ],
        "max_tokens": 512,
        "temperature": 0.7
    })
)

result = json.loads(response["body"].read())
print(result["choices"][0]["message"]["content"])
# → "네, AWS Bedrock에서 GPT-4o가 정상 동작한다."

직접 돌려본 결과, 응답 품질 자체는 Azure OpenAI와 차이가 없었다. 같은 모델이니 당연한 일이다. 응답 지연(latency)은 us-east-1 기준 Azure eastus와 거의 동일하게 나왔다. 비용은 토큰당 가격이 Azure OpenAI보다 약간 낮게 책정됐다. AWS 측에서 도입 초기 가격 인센티브를 준 것으로 보인다. 실사용 기준에서 200~400ms 범위로 첫 토큰이 돌아왔다.

주의할 점은 스트리밍이다. 스트리밍 응답을 받으려면 invoke_model_with_response_stream을 써야 한다. Azure에서는 stream=True 파라미터 하나로 해결했지만 Bedrock은 메서드 자체가 다르다. 청크 파서도 별도로 구현해야 한다. 실시간 타이핑 효과가 필요한 서비스라면 이 부분에서 추가 작업이 생긴다. function calling은 동일한 포맷으로 그대로 동작했다.

Azure OpenAI vs AWS Bedrock — 뭐가 다른가

같은 OpenAI 모델을 쓰지만 클라우드마다 연동 방식, 가격, 생태계가 다르다. 어느 쪽이 낫다는 절대적 답은 없다. 지금 쓰는 인프라에 따라 선택이 달라진다.

항목Azure OpenAIAWS Bedrock OpenAI
인증 방식API Key 또는 Azure ADIAM 역할 / AWS 자격증명
모델 접근Deployment 단위 배포 후 사용모델 카탈로그 enable 즉시 사용
Python SDKopenai (AzureOpenAI 클래스)boto3 bedrock-runtime
네트워크 격리VNet, Private Endpoint 지원VPC Endpoint 지원
데이터 학습 사용기본 비활성화. Azure 계약 보장기본 비활성화. AWS BAA 적용
리전 수20+ 리전 (모델별 상이)초기 us-east-1, 순차 확대
Fine-tuningGPT-4o fine-tuning 지원출시 초기 미지원, 로드맵 있음
AWS 서비스 연동추가 설정 필요S3, Lambda, SageMaker 네이티브

Azure OpenAI — 장점

  • 리전이 이미 20개 이상 열려 있다
  • Azure AD 인증이 엔터프라이즈에 자연스럽다
  • Fine-tuning이 지금 당장 가능하다
  • 기존 Azure 인프라 팀의 관리 경험이 있다
  • Deployment 단위 트래픽 제어가 세밀하다

Azure OpenAI — 단점

  • Deployment 준비에 별도 시간이 걸린다
  • AWS 기반 서비스와 연동이 번거롭다
  • API Key 관리가 추가로 필요하다
  • 일부 모델 출시가 OpenAI.com보다 늦다

AWS Bedrock OpenAI — 장점

  • IAM 기반이라 키 관리가 없다
  • S3, Lambda, SageMaker와 즉시 연동된다
  • Claude, Llama, Titan과 같은 인터페이스다
  • 모델 카탈로그 enable만으로 즉시 시작 가능하다
  • 출시 초기 가격 인센티브가 있다

AWS Bedrock OpenAI — 단점

  • 초기 리전이 us-east-1에 한정된다
  • Fine-tuning이 아직 안 된다
  • 스트리밍 API가 Azure보다 복잡하다
  • openai Python SDK 직접 사용이 안 된다

Google-Anthropic $40B 동맹의 의미

같은 주, Google은 Anthropic에 $40B 규모 투자를 확정했다. 구조가 Microsoft-OpenAI와 거울처럼 닮았다. 투자 조건으로 Anthropic의 기본 클라우드 인프라를 Google Cloud(GCP)로 설정한다는 조항이 들어갔다. Vertex AI가 Claude 시리즈의 독점 제공 플랫폼이 됐다. Microsoft가 OpenAI를 Azure에 묶어뒀던 것과 같은 전략이다.

$40B는 단순 투자가 아니다. 이 규모면 Anthropic의 기업가치 전체를 사실상 커버한다. Google 입장에서는 Anthropic이 GPT 계열 모델과 경쟁하는 유일한 독립 AI 연구소라는 점에서 투자 가치가 있다. Claude 4 시리즈는 코딩, 긴 문서 처리, 추론 태스크에서 GPT-4o와 직접 경쟁하는 성능을 보여줬다. Google이 Gemini 계열만으로는 메우지 못하는 시장 공간을 Anthropic이 채운다. Gemini와 Claude가 GCP 하나에서 제공되면 GCP 고객 이탈 이유가 줄어든다.

Vertex AI에서 Claude를 쓰는 방식도 바뀐다. 이전에는 Vertex AI Marketplace를 통해 Claude를 호출하는 구조였다. 이제 Claude는 Vertex AI의 핵심 모델 라인업으로 편입됐다. GCP 콘솔에서 Gemini와 Claude를 같은 인터페이스로 선택할 수 있게 됐다. GCP 고객이 굳이 Anthropic API를 별도 계약하지 않아도 Claude에 접근 가능해진다. 하나의 청구서로 두 모델을 쓸 수 있다.

개발자 입장에서는 선택지가 늘었다. GCP 환경에서 Claude를 쓰고 싶었는데 직접 API 계약이 불편했다면 이제 Vertex AI 하나로 해결된다. AWS에서는 Bedrock에서 GPT-4o, GCP에서는 Vertex AI에서 Claude를 쓰는 구조가 자연스러운 포지셔닝이 된다. 두 모델을 모두 AWS에서 쓰고 싶다면 Bedrock에서도 Claude를 선택할 수 있으니 클라우드 단일화 전략도 가능하다.

SoftBank와 일본 AI 시장 재편

SoftBank는 이번 재편에서 또 다른 변수다. 4월 같은 주, SoftBank 손정의 회장은 일본 내 AI 인프라 구축에 수조 엔을 투입하겠다고 발표했다. AI 서버, 데이터센터, 전력 인프라까지 포함하는 대규모 계획이다. 일본이 단순 AI 서비스 소비국이 아니라 AI 인프라 구축국으로 전환하겠다는 선언이다. 에너지 비용을 감수하고라도 AI 주권을 가져오겠다는 방향이다.

SoftBank는 OpenAI와도 깊은 관계다. SoftBank는 OpenAI에 대규모 지분 투자를 단행했고 "Stargate Japan" 프로젝트를 추진하고 있다. Stargate는 OpenAI, SoftBank, 오라클이 공동으로 미국과 일본에 AI 데이터센터를 구축하는 사업이다. Microsoft-OpenAI 독점이 해제되면서 SoftBank가 구축하는 인프라에서 OpenAI 모델을 어떤 클라우드 파이프라인으로 제공할지가 변수가 됐다. Azure를 우회하는 자체 파이프라인을 가질 수 있게 된 것이다.

일본 시장에서 SB Technology는 Azure OpenAI Service의 주요 리셀러였다. 독점 해제 이후 SoftBank 계열사들이 Azure 대신 자체 인프라에 OpenAI 모델을 탑재하는 방향을 검토하고 있다는 보도가 나왔다. 아시아 최대 통신·금융 그룹이 AI 클라우드 공급망을 직접 소유하겠다는 방향이다. 이 흐름이 이어지면 한국, 대만, 동남아시아 시장에도 파급 효과를 낳을 수 있다.

한국과의 연결점도 있다. 삼성전자는 Stargate 프로젝트에 HBM 메모리를 공급하는 협상을 진행 중이다. SoftBank의 AI 인프라 확장이 삼성, SK하이닉스 등 국내 반도체 업체 수요와 직결된다. AI 소프트웨어 레이어의 동맹 재편이 하드웨어 공급망까지 흔들고 있다. 스택 최상단의 독점 해제가 최하단 칩 시장까지 영향을 미치는 구조다.

멀티클라우드 AI 시대가 시작됐다

이번 재편 전까지 AI 모델과 클라우드는 1:1로 묶여 있었다. GPT 계열을 쓰려면 Azure. Claude를 쓰려면 Anthropic API 직접 계약(또는 AWS Bedrock). Gemini를 쓰려면 Google Cloud. 모델 선택이 곧 클라우드 선택이었다. 개발자에게는 사실상 클라우드 종속이었다. 원하는 모델이 있는 클라우드를 써야 했다.

지금은 다르다. GPT-4o를 Azure에서도, AWS Bedrock에서도 쓸 수 있다. Claude를 AWS Bedrock에서도, GCP Vertex AI에서도 쓸 수 있다. 클라우드를 정하고 나서 모델을 고르는 게 아니라, 모델을 고르고 나서 어느 클라우드에서 돌릴지를 선택하는 구조로 바뀌고 있다. 모델과 인프라의 결합이 풀리는 분리(decoupling)가 시작됐다.

이 변화가 개발자에게 의미하는 건 failover다. 예전에는 Azure OpenAI가 다운되면 대안이 없었다. 이제 Azure가 응답 없으면 Bedrock으로 자동 전환하는 구조를 코드로 구현할 수 있다. 99.9% SLA보다 더 높은 가용성을 클라우드를 조합해서 만들 수 있게 됐다. 배포 환경에서 이런 멀티클라우드 AI failover를 구성하는 패턴이 빠르게 퍼질 것이다.

비용 협상 측면에서도 기업이 유리해졌다. 이전에는 "Azure 아니면 선택지 없음"이었다. 이제 "AWS가 더 싸게 해주면 Bedrock으로 가겠다"는 카드가 생겼다. 이 협상 카드가 실제로 청구서를 낮추는 데 쓰일 것이다. 클라우드 간 경쟁이 결국 토큰 단가를 낮추는 방향으로 작용할 것이다. 독점이 끝나면 항상 그랬다.

비용 비교 — Azure vs AWS vs GCP

결론부터 말한다. 출시 초기 AWS Bedrock의 OpenAI 모델 가격이 Azure OpenAI보다 약간 낮다. GCP Vertex AI의 Claude 가격은 Anthropic 직접 API와 거의 동일하다. 아래 표는 2026년 4월 말 기준 공개된 가격이다. 클라우드 프로모션 정책에 따라 달라질 수 있다.

모델Azure OpenAIAWS Bedrock직접 API
GPT-4o 입력 (1M 토큰)$2.50$2.30$2.50
GPT-4o 출력 (1M 토큰)$10.00$9.20$10.00
GPT-4.1 입력 (1M 토큰)$2.00$1.85$2.00
Claude 4 Sonnet 입력 — Bedrock미지원$3.00$3.00
Claude 4 Sonnet 입력 — Vertex AI미지원$3.00 (GCP 청구)
숨겨진 비용 주의

토큰 단가만 보면 AWS Bedrock이 저렴해 보인다. 하지만 실제 비용 구조는 다음도 포함된다.
  • 데이터 전송(Egress): AWS에서 외부로 나가는 데이터는 GB당 과금된다. 응답 크기가 크면 전송 비용이 추가된다.
  • Cross-region 요청: us-east-1 외 리전에서 us-east-1 Bedrock을 호출하면 지연과 전송 비용 모두 증가한다.
  • Provisioned Throughput: 대용량 트래픽이면 Provisioned Throughput 계약이 필요하다. 온디맨드 대비 비용 구조가 크게 달라진다.

Azure에서 Bedrock으로 마이그레이션하는 법

Azure OpenAI를 쓰던 코드를 Bedrock으로 옮기는 방법이다. 핵심은 인증과 클라이언트 초기화만 바꾸는 것이다. 비즈니스 로직, 프롬프트, 응답 파싱은 건드리지 않아도 된다. 먼저 IAM에서 bedrock:InvokeModel 권한을 부여하고 Bedrock 콘솔에서 OpenAI 모델을 enable한다. 이 두 단계가 끝나면 아래 코드로 바로 테스트할 수 있다.

# ── Before: Azure OpenAI ──────────────────────────────────
from openai import AzureOpenAI
import os

azure_client = AzureOpenAI(
    api_key=os.environ["AZURE_OPENAI_API_KEY"],
    api_version="2024-12-01-preview",
    azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"]
)

def chat_azure(prompt: str) -> str:
    resp = azure_client.chat.completions.create(
        model="gpt-4o",
        messages=[{"role": "user", "content": prompt}],
        max_tokens=1024
    )
    return resp.choices[0].message.content


# ── After: AWS Bedrock ────────────────────────────────────
import boto3, json

bedrock_client = boto3.client(
    "bedrock-runtime",
    region_name="us-east-1"
    # 인증: ~/.aws/credentials 또는 EC2/Lambda IAM 역할 자동 적용
)

def chat_bedrock(prompt: str) -> str:
    body = json.dumps({
        "model": "gpt-4o",
        "messages": [{"role": "user", "content": prompt}],
        "max_tokens": 1024
    })
    resp = bedrock_client.invoke_model(
        modelId="openai.gpt-4o",
        contentType="application/json",
        accept="application/json",
        body=body
    )
    return json.loads(resp["body"].read())["choices"][0]["message"]["content"]

두 클라우드를 동시에 지원해야 한다면 failover 패턴이 유용하다. Azure가 응답 없거나 에러가 나면 자동으로 Bedrock으로 전환하는 구조다. 서비스 가용성을 높이는 가장 실용적인 방법이다. 비즈니스 로직은 두 함수가 같은 인터페이스를 가지기 때문에 호출부를 전혀 바꾸지 않아도 된다.

import logging, os, json, boto3
from openai import AzureOpenAI, APIStatusError, APIConnectionError

logger = logging.getLogger(__name__)

def chat_with_fallback(prompt: str, max_tokens: int = 1024) -> str:
    """Azure 실패 시 Bedrock으로 자동 전환. 호출부 코드 수정 불필요."""

    # 1차: Azure OpenAI
    try:
        azure = AzureOpenAI(
            api_key=os.environ["AZURE_OPENAI_API_KEY"],
            api_version="2024-12-01-preview",
            azure_endpoint=os.environ["AZURE_OPENAI_ENDPOINT"]
        )
        resp = azure.chat.completions.create(
            model="gpt-4o",
            messages=[{"role": "user", "content": prompt}],
            max_tokens=max_tokens
        )
        return resp.choices[0].message.content

    except (APIStatusError, APIConnectionError) as e:
        logger.warning("Azure failed (%s), switching to Bedrock", e)

    # 2차 fallback: AWS Bedrock
    bedrock = boto3.client("bedrock-runtime", region_name="us-east-1")
    resp = bedrock.invoke_model(
        modelId="openai.gpt-4o",
        contentType="application/json",
        accept="application/json",
        body=json.dumps({
            "model": "gpt-4o",
            "messages": [{"role": "user", "content": prompt}],
            "max_tokens": max_tokens
        })
    )
    return json.loads(resp["body"].read())["choices"][0]["message"]["content"]
마이그레이션 체크리스트
  • AWS IAM에 bedrock:InvokeModel 권한 부여 확인
  • Bedrock 콘솔에서 GPT-4o, GPT-4.1, o3 각각 enable 처리
  • 스트리밍 사용 시 invoke_model_with_response_stream으로 교체
  • function calling 파이프라인 통합 테스트 필수
  • us-east-1 외 리전 출시 일정 확인 후 배포 리전 결정

용도별 클라우드 선택 가이드

어느 클라우드가 나은지는 현재 인프라와 팀 상황에 달려 있다. 절대적인 정답은 없다. "이 경우엔 이게 낫다"는 기준을 정리했다.

상황추천이유
이미 Azure를 메인으로 쓰는 팀Azure OpenAI 유지IAM, VNet, 모니터링 이미 세팅됨. 바꿀 이유 없음
이미 AWS를 메인으로 쓰는 팀AWS BedrockIAM, Lambda, S3 연동 자연스럽고 Azure 계약 추가 불필요
GCP 기반 + Claude 필요GCP Vertex AIClaude가 Vertex AI에 통합됨. Anthropic 직계약 불필요
고가용성 AI 서비스 구축Azure + Bedrock 이중화failover 구성으로 단일 장애점 제거
Fine-tuning이 핵심 요구사항Azure OpenAIGPT-4o fine-tuning이 현재 Azure에서만 가능
코딩 에이전트 / 대형 컨텍스트Bedrock GPT-4.11M 컨텍스트 + 낮은 단가 조합이 에이전트에 유리
추론 정확도 최우선Bedrock o3수학·과학·복잡 로직에서 가장 높은 정확도
규정 준수 / 데이터 주권 필요Azure OpenAIGDPR, HIPAA BAA, 한국 PIPA 대응 기반이 성숙함

한국 기업에 미치는 영향

국내 대기업 입장에서 가장 큰 변화는 협상 카드가 생겼다는 것이다. 삼성, LG, 카카오, 네이버는 이전에 GPT 계열 모델을 대규모로 쓰려면 Azure와 계약해야 했다. 선택지가 없으면 협상력이 없다. 이제 "AWS에서 같은 모델을 이 조건에 제공한다"는 카드가 생겼다. 클라우드 계약 갱신 시점에서 유리한 조건을 끌어낼 수 있게 됐다.

스타트업 입장에서는 더 단순하다. 기존에 AWS 기반으로 서비스를 올리고 있었다면 이제 Azure 계약 없이 GPT-4o를 쓸 수 있다. 관리해야 할 클라우드 벤더가 하나 줄어든다. AWS 청구서 하나로 Bedrock에서 Claude, GPT-4o, Llama를 모두 선택할 수 있는 구조가 됐다. 벤더 다변화 없이도 모델 다변화가 가능해졌다.

데이터 주권 이슈는 조금 복잡하다. AWS Bedrock OpenAI의 초기 가용 리전이 us-east-1이라는 점이 국내 기업에게는 걸림돌이 될 수 있다. 한국 개인정보보호법(PIPA) 관점에서 개인정보를 포함한 데이터가 해외 리전으로 나가는 것은 추가 검토가 필요하다. AWS ap-northeast-2(서울) 리전에 OpenAI 모델이 추가되는 시점이 실질적인 도입 기준이 될 것이다. 그 전까지는 개인정보가 없는 데이터에 한해 테스트하는 걸 권장한다.

금융권은 Azure를 선호해왔다. 클라우드 기반 AI 서비스의 금융감독원 신고 및 검사 대응에서 Azure의 레퍼런스가 많았기 때문이다. Bedrock이 국내 금융 규제 환경에서 동일한 수준의 준법 지원을 제공하기까지는 시간이 더 걸릴 것이다. 금융권은 당분간 Azure OpenAI를 유지하면서 Bedrock을 모니터링하는 게 안전하다.

앞으로 3개월 — 무엇을 주목해야 하나

가장 빠르게 확인해야 할 건 AWS Bedrock OpenAI의 리전 확장 일정이다. us-east-1에서 시작한 OpenAI 모델이 언제 ap-northeast-1(도쿄), ap-northeast-2(서울)에 들어오는지가 아시아 개발자들에게 실질적인 분기점이다. AWS는 보통 신규 모델 출시 후 90일 이내에 주요 리전으로 확장하는 패턴을 보여왔다. 서울 리전 가용 시점이 국내 기업의 실제 도입 시작점이 된다.

Anthropic on Azure도 가능성이 있다. Microsoft-OpenAI 독점이 해제됐듯 Anthropic-Google Cloud 계약도 독점이 아닐 수 있다. Anthropic이 이미 AWS Bedrock에서 Claude를 제공하고 있다는 사실을 보면 Google Cloud 계약이 다른 클라우드 진입을 막지는 않는다. Azure에서 Claude를 쓸 수 있는 날이 오면 AI 모델과 클라우드 선택이 완전히 분리된다. 그 시점이 되면 클라우드 벤더는 순수하게 인프라와 가격으로만 경쟁하게 된다.

Meta Llama의 오픈소스 경쟁이 변수다. Llama 4 시리즈가 GPT-4o와 Claude 4에 성능 압박을 가하고 있다. 무료 오픈소스 모델의 성능이 올라오면 유료 독점 모델의 협상력이 약해진다. 클라우드들이 OpenAI, Anthropic 모델을 유치하려는 이유 중 하나가 Llama와의 차별화다. 역설적으로 오픈소스 경쟁이 독점 해제를 더 빠르게 촉진했다는 분석도 있다. 경쟁이 치열할수록 파트너십이 더 열린다.

가격은 내려갈 것이다. 클라우드 간 경쟁, 오픈소스 모델의 압박, 추론 칩 비용 하락이 맞물리면서 GPT-4o 수준 모델의 토큰 단가가 12개월 안에 지금 대비 30~50% 하락할 가능성이 높다. AI 비용이 주요 고민이었다면 지금 당장 전면 최적화하지 않아도 된다. 시장이 알아서 내려올 것이다. 지금은 아키텍처와 failover 구조를 잡는 시간으로 쓰는 게 낫다.

마무리

7년간 AI 클라우드의 규칙을 정해왔던 Microsoft-OpenAI 독점이 끝났다. 그리고 다음날, AWS가 그 빈자리를 채웠다. 한 주 만에 AI 인프라 동맹 지도가 바뀌었다. 이 변화가 당장 모든 개발자에게 무언가를 강요하지는 않는다. 기존 Azure OpenAI 환경이 잘 돌아가고 있다면 지금 당장 옮길 이유는 없다. 중요한 건 선택지가 생겼다는 사실이다.

이전에는 선택이 없었다. 이제는 있다. 그 차이가 크다. 당장 코드를 바꾸지 않더라도 다음 클라우드 계약 갱신 때 이 카드를 꺼낼 수 있다. 멀티클라우드 AI failover 구성을 코드에 심어두면 가용성이 올라간다. 그것만으로도 이번 주의 발표는 이미 개발자에게 충분한 가치가 있다.

자주 묻는 질문

Microsoft-OpenAI 독점 계약이 완전히 끝난 건가?

완전 종료는 아니다. 2026년 4월 27일 발표는 Microsoft의 '유일한 클라우드 공급자' 독점 지위가 해제된 것이다. Microsoft는 여전히 OpenAI의 최대 투자자이고 Azure를 통해 OpenAI 모델을 계속 제공한다. Azure OpenAI Service가 없어지는 게 아니다. 달라진 건 OpenAI가 이제 AWS, Google Cloud 등 다른 플랫폼과도 직접 파트너십을 맺을 수 있게 됐다는 것이다. 경쟁 구조가 열린 것이지 관계가 끊긴 게 아니다.

AWS Bedrock에서 GPT-4o를 지금 당장 쓸 수 있나?

2026년 4월 28일부터 가능하다. 단, 초기 가용 리전이 us-east-1로 한정됐다. AWS 콘솔에서 Bedrock 모델 카탈로그로 들어가면 GPT-4o, GPT-4.1, o3를 enable할 수 있다. enable 즉시 boto3로 호출 가능하다. 서울 리전(ap-northeast-2)은 순차 확대 예정이며 구체 일정은 AWS 공식 발표를 확인해야 한다. us-east-1에서 먼저 테스트하고 서울 리전 추가를 기다리는 방식이 현실적이다.

Azure OpenAI와 AWS Bedrock OpenAI 중 어느 쪽이 더 빠른가?

같은 리전에서 호출하면 latency 차이는 미미하다. us-east-1 기준 Bedrock GPT-4o와 Azure eastus GPT-4o를 비교했을 때 첫 토큰 지연(TTFT)은 200~400ms 범위 안에서 비슷하게 나왔다. 리전 차이가 latency에 더 큰 영향을 준다. 한국에서 서비스한다면 서울 리전에 Bedrock OpenAI가 들어오기 전까지는 지리적으로 Azure eastasia가 유리하다.

Google이 Anthropic에 $40B를 투자한 이유가 뭔가?

Google Cloud 생태계에 강력한 AI 모델을 묶어두기 위해서다. Microsoft가 OpenAI에 한 것과 같은 구조다. Anthropic의 Claude 시리즈는 GPT-4o와 직접 경쟁하는 몇 안 되는 모델이다. $40B 투자 조건에 Google Cloud를 기본 인프라로 사용한다는 조항이 들어갔다. 투자 규모가 크기 때문에 Anthropic이 Google의 GPU, TPU 자원을 활용할 수 있다는 이점도 있다. Google 입장에서는 Gemini만으로 메우지 못하는 시장을 Claude가 채운다.

Azure OpenAI 코드를 Bedrock으로 마이그레이션하기 어렵나?

같은 OpenAI 모델을 쓴다면 생각보다 쉽다. 가장 큰 차이는 인증 방식이다. Azure는 API Key 기반이고 AWS Bedrock은 IAM 기반이다. 요청 body 포맷은 OpenAI Chat Completions 스키마 그대로 쓴다. 스트리밍은 메서드 자체가 달라지기 때문에 추가 수정이 필요하다. function calling은 포맷이 동일해서 거의 수정 없이 동작한다. 전체적으로 클라이언트 초기화 코드만 바꾸고 스트리밍 부분만 별도로 테스트하면 된다.

이번 재편으로 GPT 모델 가격이 내려가나?

방향은 그렇다. Azure가 단독 공급하던 시절과 달리 이제 AWS와 가격 경쟁이 생겼다. Bedrock 출시 초기에 이미 Azure보다 약간 낮은 가격을 공개했다. 오픈소스 Llama 모델의 성능이 올라오면서 유료 모델에 추가 압박을 가하고 있다. 추론 칩 비용도 매년 하락 중이다. 이 세 가지 요인이 맞물리면 12개월 안에 의미 있는 가격 하락이 있을 것이다. 토큰 비용이 30~50% 하락하는 시나리오도 낙관적이지 않다.

SoftBank 투자가 한국 시장에도 영향을 미치나?

간접적으로 영향을 미친다. SoftBank의 Stargate Japan 프로젝트가 성공하면 아시아 AI 인프라의 총용량이 늘어난다. 더 직접적인 영향은 협상 카드다. 한국 기업들이 "SoftBank 인프라나 AWS에서도 OpenAI 모델을 쓸 수 있다"는 선택지를 가지면서 Azure와의 협상이 유리해진다. 삼성전자 HBM 공급 관점에서는 Stargate Japan이 수요처로 직결된다. AI 소프트웨어 독점 해제가 반도체 하드웨어 수요까지 이어지는 구조다.

AI 인프라 동맹이 앞으로 더 바뀔 가능성이 있나?

높다. 현재 패턴을 보면 독점에서 멀티클라우드로 가는 방향이 명확하다. Anthropic on Azure, OpenAI on GCP 같은 조합도 기술적으로 불가능한 게 아니다. 1~2년 안에 어떤 클라우드를 쓰든 주요 AI 모델 전체에 접근 가능한 구조가 될 가능성이 높다. 그 시점이 되면 AI 모델 선택은 순수하게 성능과 가격으로만 결정되고 클라우드 선택은 인프라 편의성으로만 결정된다. 개발자에게는 가장 이상적인 시나리오다.

공식 출처 및 참고 자료

이 글은 2026년 4월 30일 기준 공개된 정보를 바탕으로 작성했다. 클라우드 서비스 가격, 리전 가용성, 파트너십 조건은 이후 변경될 수 있다.

AWS Bedrock OpenAI 모델 ID, API 스펙은 공식 출시 후 세부 사항이 달라질 수 있으니 실제 구현 시 AWS 공식 문서를 확인해라.

공유하기
XLinkedInFacebook