Apple이 Siri를 Gemini로 갈아탔다 — iOS 26.4의 속사정
iOS 26.4에서 Siri가 Google Gemini 1.2조 파라미터 모델로 완전히 교체됐다. Apple이 연 10억 달러 계약을 체결하면서 Apple Private Cloud Compute로 프라이버시를 유지한 방식과 실제로 달라지는 점을 정리했다.
Apple Intelligence는 사라지지 않는다. 온디바이스에서 처리되는 기능은 그대로다. 텍스트 자동 완성, 알림 요약, 이미지 편집, 개인 데이터 처리가 여기에 해당한다.
역할 분담이 명확해진다. 간단한 작업은 Apple Intelligence가 기기 내부에서 빠르게 처리한다. 복잡한 추론이 필요한 질문은 Gemini가 클라우드에서 처리한다. 사용자는 이 구분을 신경 쓸 필요가 없다. Siri가 알아서 라우팅한다.
기존에 ChatGPT로 보내던 복잡한 질문들이 Gemini로 바뀐다. ChatGPT 연동이 유지될지는 미확정이다. iOS 26.4 출시 이후 정책이 공개되면 명확해질 전망이다.
· 온디바이스 → Apple Intelligence (개인 데이터, 빠른 응답, 프라이버시 최우선)
· 클라우드 → Gemini 1.2조 파라미터 (복잡한 추론, 최신 정보, 멀티모달)
· 경계 결정 → Siri 내부 라우팅 로직이 자동 판단
실제로 달라지는 것
날씨, 타이머, 음악 재생은 변함없다. 온디바이스에서 처리되기 때문이다. 달라지는 건 '복잡한 질문'에 대한 응답이다. 기존에는 에러가 나거나 웹 검색 결과만 나오던 영역이다.
긴 이메일 초안 작성, 회의 일정 정리, 문서 분석 같은 작업이 가능해진다. 맥락 유지 길이도 달라진다. 대화를 여러 번 이어가도 앞 내용을 기억한다. Gemini의 긴 컨텍스트 윈도우 덕분이다.
Shortcuts 앱 연동도 달라진다. 자동화 워크플로우에서 AI 추론을 쓸 수 있다. 개발자 입장에서는 SiriKit API의 기능이 확장된다. 앱에서 Siri를 통해 Gemini 수준의 추론을 호출할 수 있게 된다.
기존 Siri vs Gemini 기반 Siri 비교
| 항목 | 기존 Siri | Gemini 기반 Siri |
|---|---|---|
| 기반 모델 | Apple 자체 LLM | Google Gemini 1.2조 파라미터 |
| 복잡한 추론 | 제한적 | 가능 |
| 맥락 유지 | 짧음 | 긴 대화 가능 |
| 멀티모달 | 텍스트·음성 위주 | 텍스트·이미지·오디오·영상 |
| 데이터 처리 | Apple 서버 | Apple Private Cloud Compute |
| 출시 | 현재 | iOS 26.4 이후 |
| 계약 비용 | — | 연 10억 달러 (Apple → Google) |
AI 어시스턴트 경쟁 현황
AI 어시스턴트 시장이 빠르게 재편되고 있다. 삼성은 Galaxy AI에 Google Gemini를 일부 탑재했다. Microsoft는 Copilot을 Windows와 Office에 통합했다. 이제 Apple도 Google AI를 쓰기 시작했다.
OpenAI는 독립 앱 지위가 더 중요해졌다. Siri가 Gemini로 교체되면 ChatGPT는 OS 수준 통합에서 밀려난다. 어떤 모델이 기본 어시스턴트 자리를 차지하느냐가 AI 생태계의 핵심 경쟁이 됐다.
| 어시스턴트 | 기반 모델 | 탑재 기기 | 특징 |
|---|---|---|---|
| Siri (iOS 26.4~) | Gemini 1.2조 | iPhone, iPad, Mac | Private Cloud Compute |
| Galaxy AI | Gemini (일부) | 삼성 Galaxy | 온디바이스 + 클라우드 혼합 |
| Copilot | GPT-4o 계열 | Windows, Office | 문서·업무 작업 특화 |
| Google Assistant | Gemini | Android, Pixel | Google 생태계 통합 |
iOS 26.4 이후를 어떻게 볼 것인가
Apple이 자체 AI를 완전히 포기한 건 아니다. Apple Research는 계속 모델을 개발한다. 다만 지금 당장 Siri 사용자 경험 개선을 위해 최고 수준 모델을 선택했다. 실용적인 판단이다.
Gemini 1.2조가 기대에 못 미칠 수도 있다. Siri의 약점 중 일부는 모델보다 시스템 통합 문제에 있었다. iOS 26.4 출시 후 직접 확인할 필요가 있다. 아래는 상황에 따른 어시스턴트 선택 기준이다.
| 상황 | 추천 | 이유 |
|---|---|---|
| 빠른 단순 작업 | Siri (온디바이스) | 로컬 처리, 응답 즉각 |
| 복잡한 질문·추론 | Siri (Gemini) | 1.2조 파라미터 모델 |
| 긴 문서 작성 | ChatGPT / Gemini 앱 | 풍부한 편집 인터페이스 |
| 개인 데이터 분석 | Siri (Apple Intelligence) | 온디바이스, 프라이버시 |
| 코드 작성 | GitHub Copilot / Claude | IDE 통합 특화 |
자주 묻는 질문
Q. iOS 26.4에서 Siri가 완전히 사라지는 것인가?
Siri 브랜드는 유지된다. 복잡한 추론과 언어 이해 처리를 Google Gemini 모델이 담당하는 구조로 바뀐다. 사용자는 "야, Siri"를 그대로 부른다. 내부에서 Gemini가 처리할 뿐이다.
Q. Apple Private Cloud Compute를 쓰면 데이터가 Google에 넘어가지 않는가?
그렇다. Apple Private Cloud Compute는 Apple이 직접 운영하는 암호화 서버 인프라다. Google은 원본 쿼리에 접근하지 못한다. 쿼리는 암호화된 채로 Gemini 모델에 전달되고 결과만 돌아오는 구조다.
Q. 연 10억 달러 계약은 어떤 구조인가?
Apple이 Google에 Gemini API 사용료로 연 10억 달러를 지불하는 구조로 보도됐다. 기존 Safari 기본 검색엔진 계약(연 200억 달러 규모)과 별개다. 두 계약은 독립적으로 운영된다.
Q. Apple Intelligence는 계속 사용할 수 있는가?
그렇다. Apple Intelligence의 온디바이스 기능은 그대로 유지된다. 텍스트 자동 완성, 알림 요약, 이미지 편집 등은 기기 내부에서 처리된다. Gemini는 복잡한 추론 쿼리만 담당한다.
Q. iOS 26.4는 언제 출시되는가?
정확한 출시 일정은 공개되지 않았다. 2026년 하반기 출시가 유력하다. Apple WWDC 2026에서 세부 일정과 기능이 공개될 전망이다.
Apple의 이번 결정은 현실적인 선택이다. 직접 만들어서 뒤처지는 것보다 최고 모델을 가져다 쓰는 편이 낫다. 삼성이 Galaxy AI에 Gemini를 탑재한 것과 같은 맥락이다. 자존심보다 제품 품질을 택했다.
iOS 26.4 출시 이후 Gemini 기반 Siri가 실제로 어떻게 동작하는지 직접 써볼 계획이다. 벤치마크보다 일상 사용 경험이 중요하다. 실제 테스트 결과는 이후 업데이트할 예정이다.
· Apple Private Cloud Compute 개요 — security.apple.com
· Bloomberg: Apple-Google Gemini 계약 보도 (2026년 4월)
· The Verge: iOS 26.4 Siri 교체 상세 (2026년 4월)
이 글의 정보는 보도 시점 기준이다. 제품 출시 이후 사양이 변경될 수 있다.
마지막 업데이트: 2026년 4월 12일