AI Trends8 min

Meta 초거대지능연구소가 첫 AI 모델 Muse Spark를 공개했다

Meta 초거대지능연구소(MSRI)가 첫 모델 Muse Spark를 공개했다. Thinking·Contemplating 두 가지 추론 모드와 멀티모달을 탑재했고, GPT-4o·Claude 3.7을 겨냥한 벤치마크 결과도 함께 나왔다.

2026년 4월 · AI 소식

Meta가 초거대지능연구소(Superintelligence Research Lab)를 공식 출범시켰다. 기존 Meta AI 팀과는 별도 조직이다. 첫 번째 모델 이름은 Muse Spark다. Llama 시리즈와는 전혀 다른 라인이다.

Llama는 오픈소스 공개 모델이다. 누구나 내려받아 로컬에서 돌릴 수 있다. Muse Spark는 다르다. 클로즈드 API 전용이다. Meta가 처음으로 오픈소스와 클로즈드를 동시에 운영하는 구조를 택한 것이다.

이번 릴리즈에서 눈에 띄는 건 추론 모드 설계다. 하나의 모델에 두 가지 모드를 넣었다. Thinking은 빠른 추론, Contemplating은 깊은 추론이다. API 파라미터 하나로 전환한다. 모델을 두 개 운영할 필요가 없다.

빠르게 보기
— Meta 초거대지능연구소 첫 공개 모델: Muse Spark
— 추론 모드 2가지: Thinking(빠름) / Contemplating(깊음)
— 텍스트 + 이미지 멀티모달 (이미지 생성 없음)
— Llama와 별개 클로즈드 모델
— Meta AI 앱·API·Meta.ai 웹에서 접근 가능
목차
  1. Meta 초거대지능연구소 — 왜 별도 조직인가
  2. Thinking vs Contemplating — 추론 모드 두 개
  3. API 호출 구조 — reasoning_mode 파라미터
  4. 멀티모달 — 이미지 이해만, 생성은 없다
  5. 주요 모델 비교
  6. 용도별 추천 — 언제 어떤 모드를 쓰나
  7. Llama와의 관계 — 이중 전략
  8. 접근 방법 — Meta AI 앱·웹·API
  9. 자주 묻는 질문

Meta 초거대지능연구소 — 왜 별도 조직인가

Meta는 기존에도 AI 연구팀이 있었다. FAIR(Facebook AI Research)가 그 주체였다. Llama 시리즈가 이 팀의 결과물이다. 이번에 출범한 초거대지능연구소는 목표가 다르다. AGI를 명시적으로 내걸었다.

경쟁 구도를 보면 배경이 보인다. OpenAI는 o3, Anthropic은 Claude 3.7, Google은 Gemini 2.5 Pro를 갖고 있다. 모두 클로즈드 고성능 추론 모델이다. Meta만 이 시장에 없었다. Muse Spark가 그 공백을 채우는 첫 시도다.

FAIR는 기초 연구와 오픈소스를 계속 담당한다. 초거대지능연구소는 클로즈드 고성능 모델 개발을 맡는다. 두 팀이 병렬로 운영된다. Meta가 오픈소스 전략을 포기한 게 아니라, 그 위에 레이어를 하나 더 얹은 구조다.

Thinking vs Contemplating — 추론 모드 두 개

Thinking은 빠른 추론 모드다. 응답 속도가 중요한 작업에 쓴다. 코딩 보조, 문서 요약, 일반 Q&A가 여기 해당된다. 대부분의 일상 작업은 이 모드로 충분하다.

Contemplating은 다르다. 선생님이 수학 문제를 노트에 단계별로 풀어가는 것과 같다. 중간 추론 과정 전체가 응답에 포함된다. 수학 증명, 과학 계산, 복잡한 논리 추론에 적합하다. 응답이 느린 대신 어느 단계에서 어떤 판단을 했는지 확인할 수 있다.

핵심은 두 모드가 하나의 모델 안에 있다는 점이다. API 파라미터 하나로 전환된다. OpenAI가 GPT-4o와 o3를 별도 모델로 운영하는 방식과 다르다. 코드베이스에서 모델 이름을 바꿀 필요 없이 파라미터만 수정하면 된다.

API 호출 구조 — reasoning_mode 파라미터

API 호출 형식은 OpenAI 호환 구조와 유사하다. 기존 코드베이스에서 크게 바꿀 게 없다. 달라지는 건 reasoning_mode 파라미터 하나다. "thinking" 또는 "contemplating" 값 중 하나를 넣으면 된다.

# Thinking 모드 — 빠른 추론
{
  "model": "muse-spark",
  "reasoning_mode": "thinking",
  "messages": [{"role": "user", "content": "..."}]
}

# Contemplating 모드 — 깊은 추론, think 블록 포함
{
  "model": "muse-spark",
  "reasoning_mode": "contemplating",
  "messages": [{"role": "user", "content": "..."}]
}

Contemplating 모드 응답은 구조가 다르다. <think> 블록에 중간 추론 과정이 들어간다. 최종 답변은 그 아래에 별도로 나온다. 두 영역을 분리해서 파싱해야 한다. UI에 추론 과정을 펼쳐서 보여주는 설계가 가능하다.

API 접근 현황 (2026년 4월 기준)
현재 API 키 발급은 대기자 명단 방식으로 운영된다. Meta AI Pro 구독자에게 우선 접근 권한이 부여된다. 일반 개발자 접근은 순차적으로 열릴 예정이다. 엔드포인트는 ai.meta.com을 통해 접근한다.

멀티모달 — 이미지 이해만, 생성은 없다

텍스트와 이미지를 함께 처리한다. 차트 이미지를 붙여넣고 분석을 요청하거나, 에러 스크린샷을 넣어 디버깅을 시키는 것이 가능하다. 손으로 쓴 수식도 인식한다. 이미지를 텍스트와 함께 API에 전달하는 방식이다.

이번 릴리즈의 한계는 명확하다. 이미지 이해만 된다. 이미지 생성, 음성 입력, 영상 처리는 없다. Gemini 2.5 Pro가 텍스트·이미지·음성·영상을 모두 처리하는 것과 비교하면 지원 범위가 좁다. 첫 버전이라는 점을 감안해야 한다.

Llama도 처음에는 텍스트 전용이었다. 이후 멀티모달 버전이 추가됐다. Muse Spark도 같은 경로를 밟을 가능성이 높다. 지금의 한계가 영구적이라고 단정하기 이르다.

주요 모델 비교

추론 모델 시장은 크게 세 방식으로 나뉜다. 별도 모델로 분리하는 방식(OpenAI), 하나의 모델에 통합하는 방식(Anthropic, Meta), 모든 기능을 하나로 묶는 방식(Google)이 있다. 각 방식마다 운영 복잡도와 비용 구조가 다르다.

Muse Spark는 Claude 3.7 Sonnet과 구조가 비슷하다. 하나의 모델에서 추론 깊이를 조절한다. 차이는 두 모드가 이름으로 명확히 분리됐다는 점이다. 파라미터 이름만 봐도 의도가 분명하다.

모델 추론 방식 멀티모달 오픈소스
Muse Spark Thinking / Contemplating (통합) 텍스트 + 이미지 X
Claude 3.7 Sonnet Extended Thinking (통합) 텍스트 + 이미지 X
GPT-4o o1 / o3 (별도 모델) 텍스트 + 이미지 + 음성 X
Gemini 2.5 Pro Thinking (통합) 텍스트 + 이미지 + 음성 + 영상 X
Llama 3.3 없음 일부 버전 O

용도별 추천 — 언제 어떤 모드를 쓰나

모든 작업에 Contemplating을 쓰면 안 된다. 응답 속도가 느려지고 비용이 올라간다. 코딩 보조나 문서 요약처럼 빠른 반환이 중요한 작업은 Thinking으로 충분하다. 모드를 고르는 기준은 단순하다. 추론 과정을 확인해야 하면 Contemplating, 결과만 필요하면 Thinking이다.

반대로 정밀 추론이 필요한 작업에 Thinking만 쓰면 정확도가 떨어진다. 수학 증명, 논리 구조 분석, 다단계 계획 수립은 Contemplating이 맞다. 중간 과정을 추적할 수 있어야 오류를 잡을 수 있다.

작업 유형 추천 모드 이유
코딩 보조 / 코드 리뷰 Thinking 빠른 응답, 맥락 충분
문서 요약 / 번역 Thinking 속도 중요, 단계 추론 불필요
수학 증명 / 공식 검증 Contemplating 단계별 추론 필수
복잡한 버그 디버깅 Contemplating 추론 과정 추적 유용
이미지 분석 (차트·스크린샷) Thinking 멀티모달 기본 처리
다단계 계획 / 논리 구조 설계 Contemplating 중간 판단 과정 검증 필요

Llama와의 관계 — 이중 전략

Llama는 오픈소스다. 로컬 배포, 파인튜닝이 자유롭다. 비용이 낮고 데이터가 외부로 나가지 않는다. 이 장점은 Muse Spark로 대체되지 않는다. 두 모델이 겨냥하는 사용 맥락이 다르다.

Muse Spark는 고성능 추론이 필요할 때 쓴다. 복잡한 멀티스텝 추론, 멀티모달 처리, 프로덕션 API 기반 서비스 구축이 여기 해당된다. 로컬 Llama로는 감당이 어려운 작업이다. 둘은 경쟁이 아니다. 역할이 나뉜다.

실용적인 조합이 있다. 초안 생성은 Llama 로컬 모델로 처리한다. 검토와 정밀 추론은 Muse Spark API로 넘긴다. 비용과 성능 사이의 균형을 잡는 구조다. 하나만 골라야 할 이유가 없다. 파이프라인으로 연결하는 게 지금 당장 가장 현실적이다.

Llama + Muse Spark 조합 패턴
1단계 — 초안·분류·전처리: Llama 로컬 (비용 없음, 데이터 외부 유출 없음)
2단계 — 정밀 추론·검증·멀티모달: Muse Spark API (Contemplating 모드)
3단계 — 빠른 응답 필요 구간: Muse Spark API (Thinking 모드)
결과: 전체 API 비용을 줄이면서 성능이 필요한 구간에만 고성능 모델 투입

접근 방법 — Meta AI 앱·웹·API

Muse Spark에 접근하는 경로는 세 가지다. Meta AI 앱, Meta.ai 웹, API다. 각 경로마다 적합한 사용자와 용도가 다르다. 개발자가 아니라면 앱이나 웹으로 충분하다.

API는 개발자 전용이다. reasoning_mode를 포함한 모든 파라미터를 직접 제어한다. 프로덕션 서비스에 붙이거나 자체 파이프라인을 구성할 때 쓴다. 현재는 대기자 명단 방식으로 운영된다.

경로 특징 추천 대상
Meta AI 앱 iOS·Android, 즉시 사용, 로그인만 필요 일반 사용자, 모바일 중심
Meta.ai 웹 브라우저 접근, 설치 불필요 데스크톱 사용자, 빠른 테스트
API 파라미터 직접 제어, 프로덕션 연동 개발자, 서비스 구축

자주 묻는 질문

Q. Muse Spark는 Llama와 다른 모델인가?

별개 라인이다. Llama는 Meta FAIR에서 나온 오픈소스 공개 모델이고, Muse Spark는 초거대지능연구소에서 나온 클로즈드 API 모델이다. 운영 조직도 다르고, 접근 방식도 다르다. Llama 개발은 별도로 계속 진행된다.

Q. Thinking 모드와 Contemplating 모드의 차이는?

Thinking은 빠른 추론 모드다. 응답 속도가 우선이고, 중간 과정 없이 결과만 반환된다. Contemplating은 더 오래, 더 깊이 생각하는 모드다. 수학·과학 문제처럼 단계별 추론이 필요한 작업에 적합하고, 응답에 <think> 블록이 함께 반환된다.

Q. Muse Spark는 어디서 쓸 수 있나?

Meta AI 앱(iOS·Android), Meta.ai 웹, API 세 가지 경로로 접근 가능하다. 일반 사용자는 앱이나 웹이 편하다. 개발자는 API를 통해 reasoning_mode를 직접 제어할 수 있다. 현재 API는 대기자 명단 방식으로 운영된다.

Q. 이미지 생성도 되나?

이번 릴리즈에는 없다. 이미지 이해·분석만 지원한다. 차트 해석, 스크린샷 디버깅, 수식 이미지 인식은 가능하다. 이미지 생성, 음성, 영상은 포함되지 않았다. 이후 릴리즈에서 추가될 가능성이 높다.

Q. Llama와 함께 써도 되나?

된다. 오히려 권장한다. 로컬 처리와 비용이 중요한 작업은 Llama, 고성능 추론이 필요한 작업은 Muse Spark API로 분리하는 게 현실적이다. 두 모델을 파이프라인으로 연결하면 비용을 줄이면서 성능을 유지할 수 있다.

Meta가 오픈소스와 클로즈드를 동시에 운영하는 구조를 택했다. 하나만 밀고 나가는 게 아니다. Llama는 계속 오픈소스로 간다. Muse Spark는 고성능 클로즈드 라인이다. 두 전략이 충돌 없이 병렬로 돌아간다.

Muse Spark는 아직 첫 버전이다. 멀티모달은 이미지 이해에 그친다. 음성과 영상, 이미지 생성은 없다. 지금 당장 모든 걸 갖춘 모델은 아니다. 그래도 Meta가 AGI를 목표로 별도 조직을 만들고 첫 모델을 낸 것 자체가 하나의 신호다. 다음 릴리즈를 지켜볼 이유가 생겼다.

공식 출처
— Meta AI 블로그: meta.ai/blog
— Meta Superintelligence Research Lab 발표 원문
— Muse Spark API 문서: ai.meta.com/docs

이 글은 2026년 4월 공개 발표 자료를 바탕으로 작성됐다. 이후 릴리즈에서 사양이 변경될 수 있다. 최신 정보는 공식 문서에서 확인한다.