알리바바, 혼합적 사고와 다국어 능력을 갖춘 가장 강력한 오픈 소스 AI 모델 Qwen3 출시

작성자
CTOL Editors - Ken
13 분 독서

Qwen3의 혁신: 알리바바의 새로운 LLM이 AI 경쟁 구도를 어떻게 바꿀 것인가

서론: AI의 미래는 하이브리드 사고방식에 달려 있을까?

2025년 4월 29일, 알리바바는 생성형 AI 경쟁에서 가장 과감한 행보를 보였습니다. 바로 속도와 깊이 있는 추론을 결합한 새로운 대규모 언어 모델(LLM) 제품군인 Qwen3를 출시한 것입니다. OpenAI, Anthropic, Google DeepMind와 같은 기업들이 주도하는 생태계에서 Qwen3는 오픈 소스 LLM에 "하이브리드 사고" 방식을 도입하여 AI가 정보를 처리하고 산업 전반에 걸쳐 확장되는 방식에 대한 기존의 통념을 뒤흔들 수 있습니다.

경량 0.6B 파라미터 모델부터 235B 파라미터 MoE(Mixture of Experts) 거대 모델에 이르기까지 다양한 모델을 갖춘 Qwen3는 단순한 경쟁을 넘어 다재다능함과 효율성이 시장 승자를 결정하는 새로운 시대를 주도하겠다는 알리바바의 의지를 보여줍니다.

새로운 아키텍처: 깊이 있는 사고와 빠른 응답의 만남

하이브리드 사고: 하나의 모델, 두 가지 마음

Qwen3의 주요 특징은 이중 모드 "사고 시스템"입니다. 사용자는 다음 두 가지 모드 중에서 선택할 수 있습니다.

  • 사고 모드: 수학, 프로그래밍, 과학 연구와 같은 복잡한 작업에 적합한 단계별, 신중한 추론 방식입니다.
  • 비사고 모드: 간단한 대화, 고객 서비스, 간단한 질문에 적합한 빠르고 짧은 대기 시간 응답 방식입니다.

대부분의 LLM은 깊이 또는 속도 중 하나에 맞춰 조정되지만, Qwen3는 실시간으로 "사고 예산" 관리가 가능합니다. AI 에이전트나 지식 근로자를 배치하는 기업은 이제 예측 불가능한 클라우드 비용과 압박 속에서 느린 모델 출력이라는 오랜 기업의 불만에 대한 직접적인 해결책으로 비용 대비 품질을 동적으로 최적화할 수 있는 유연성을 갖게 되었습니다.

MoE 전략: 대규모 모델의 더 스마트한 활용

Qwen3의 주력 모델인 Qwen3-235B-A22B는 2,350억 개의 파라미터를 사용하지만 MoE 아키텍처 덕분에 추론당 220억 개만 활성화합니다. 이러한 설계는 최고 수준의 정확성을 유지하면서 추론 비용을 획기적으로 줄여 OpenAI의 o1 및 DeepSeek-R1과 같은 경쟁사보다 ArenaHard 및 AIME'24와 같은 벤치마크에서 더 나은 성능을 보입니다.

한편, Qwen3-30B-A3B와 같은 소형 MoE 모델은 코딩 및 추론 작업에서 QwQ-32B와 같은 훨씬 더 큰 Dense 모델을 능가하며 활성 계산 비용은 1/10에 불과하여 놀라운 강점을 보여줍니다.

AI 인프라 비용을 고려하는 투자자와 스타트업에게 이는 명확한 신호를 보냅니다. 즉, 단순한 무차별적인 확장뿐만 아니라 효율적인 아키텍처가 경쟁 우위를 점점 더 정의할 것입니다.

다국어 확장: 119개 언어, 글로벌 야망

알리바바의 야망은 분명히 세계적입니다. Qwen3 모델은 영어와 중국어에서부터 옥시탄어, 차티스가르어, 페로어와 같은 소규모 언어에 이르기까지 119개 언어와 방언으로 훈련되었습니다.

이러한 도달 범위는 현재 대부분의 주요 LLM이 제공하는 범위를 훨씬 능가하여 영어 중심 모델에서 소외된 신흥 시장에서 즉각적인 기회를 제공합니다. 남아시아, 동남아시아, 아프리카 및 동유럽 기업은 이제 대규모 현지화를 위한 강력한 새로운 도구를 갖게 되었습니다.

훈련: 더 크고, 더 깊고, 더 스마트하게

Qwen3의 사전 훈련 데이터 세트는 이전 버전인 Qwen2.5보다 거의 두 배 증가한 36조 개의 토큰으로 확장되었습니다. 이 방대한 코퍼스에는 웹 데이터, 과학 PDF(비전-언어 모델로 처리) 및 수학 및 프로그래밍을 위한 합성 데이터 세트가 포함되어 있으며, 모두 Qwen2.5-VL 및 Qwen2.5-Math와 같은 이전 세대 모델을 사용하여 반복적인 개선을 통해 신중하게 큐레이팅되었습니다.

훈련은 다음 세 가지 단계로 진행되었습니다.

  1. 기초 기술: 일반 지식 및 언어 모델링.
  2. 지식 강화: STEM, 추론 및 코드 중심 작업.
  3. 컨텍스트 확장: 최대 32K 토큰의 입력을 처리하기 위한 장기 시퀀스 훈련 - 엔터프라이즈급 문서 분석, 법률 검토 및 연구 요약을 가능하게 하기 위한 직접적인 움직임입니다.

이러한 전략적 계층화는 모델 기능을 향상시킬 뿐만 아니라 벤치마크 경쟁이 아닌 실제 애플리케이션에 더 적합하도록 보장합니다.

사후 훈련: 에이전트처럼 생각하는 모델 구축

사전 훈련을 넘어 Qwen3의 사후 훈련 파이프라인은 다음을 강조합니다.

  • Long Chain-of-Thought 미세 조정
  • 추론을 위한 강화 학습
  • 사고 모드 융합
  • 일반적인 명령 따르기 RL

이러한 단계를 통해 하이브리드 추론 능력이 개선되어 모델이 대화 중에도 빠르고 깊은 응답 사이를 지능적으로 전환할 수 있습니다. 이러한 설계는 모델이 여러 단계에 걸쳐 자율적으로 계획, 추론하고 외부 도구를 호출해야 하는 증가하는 AI 에이전트 애플리케이션에 완벽하게 부합합니다.

특히 팀은 소프트 스위치 메커니즘을 구현했습니다. 사용자는 /think/no_think와 같은 프롬프트를 사용하여 다중 턴 대화 내에서 사고 행동을 전환할 수 있습니다. 이를 통해 개발자는 복잡한 엔지니어링 오버헤드 없이 모델 동작을 전례 없이 제어할 수 있습니다.

성능 및 벤치마크: 실제 수치, 심각한 위협

엄격한 벤치마크에서 Qwen3는 엄청난 결과를 보여줍니다(CTOL 편집자 Ken: 이는 자체 주장이며, 과거 Llama 4의 잘못된 보고 사건으로 인해 추가 검증을 기다려야 함).

  • ArenaHard: 95.6% 정확도, DeepSeek-R1을 능가하고 Gemini2.5-Pro와 일치합니다.
  • AIME'24 (STEM 문제 해결): 85.7%, OpenAI의 o1보다 훨씬 앞섭니다.
  • LiveCodeBench (코딩 작업): 최고의 코딩 모델과 경쟁력 있습니다.

Qwen3-4B와 같은 소형 모델조차 Qwen2.5-72B-Instruct와 같은 훨씬 더 큰 모델과 일치하거나 능가하여 파라미터당 모델 효율성이 크게 향상되었음을 시사합니다.

투자자 통찰력: 시장에 대한 의미

Qwen3가 Apache 2.0에 따라 오픈 소싱되면서 폐쇄적인 서구 API에 대한 의존도를 꺼리는 스타트업, 중소기업 및 정부에게 즉시 매력적인 기반이 됩니다.

혼합 전문가 효율성은 또한 AI 배포에 대한 총 소유 비용을 상당히 낮출 수 있음을 시사합니다. 이는 기업이 2024년 이후 기술 해고 및 예산 삭감 후 클라우드 비용을 면밀히 조사하는 중요한 지점입니다.

또한 강력한 다국어 지원 기능을 갖춘 Qwen3는 영어 전용 모델이 할 수 없는 방식으로 지역 AI 채택을 주도할 수 있습니다.

공용 클라우드 제공업체의 경우 이러한 개발로 인해 경쟁이 심화될 것입니다. SaaS 공급업체의 경우 오픈 웨이트 가용성으로 인해 독점 AI 서비스에 대한 장벽이 낮아집니다. 투자자의 경우 이는 알리바바, 텐센트 및 바이트댄스가 주도하는 아시아의 AI 생태계가 서구 생태계와 빠르게 수렴되고 있으며, 어떤 경우에는 도약하고 있음을 나타냅니다.

과제 및 중요한 관점

인상적인 벤치마크에도 불구하고 초기 테스터는 다음과 같이 지적합니다.

  • DeepSeek V3 또는 Gemini 2.5-Pro에 비해 웹 프런트 엔드 코딩 성능이 약간 약합니다.
  • 복잡한 수학적 추론 작업에서 가끔씩 환각 현상이 발생합니다.
  • 복잡한 지식 집약적 평가에서 성능이 여전히 Gemini2.5-Pro에 뒤쳐집니다.

그럼에도 불구하고 전반적인 평가는 분명합니다. Qwen3는 특히 에이전트 지향적인 작업에서 훨씬 적은 계산 비용으로 격차를 획기적으로 좁힙니다.

AI와 투자자 모두를 위한 새로운 개척지

Qwen3의 등장은 기술적으로 뿐만 아니라 전략적으로도 판도를 바꿉니다. 이 모델은 하이브리드 추론 아키텍처가 대규모 AI 배포를 계획하는 기업의 핵심 요구 사항인 우수한 유연성과 비용 효율성을 제공할 수 있음을 입증합니다.

기업가의 경우 정교한 에이전트 AI를 배포하는 장벽이 크게 낮아졌습니다. 클라우드 제공업체의 경우 가격을 최적화하고 모델 액세스를 개방해야 한다는 압력이 심화되었습니다. 투자자의 경우 Qwen3의 성공 스토리는 청사진과 경고를 동시에 나타냅니다. 즉, 다음 AI 붐은 모놀리식 모델이 아니라 인간이 실제로 생각하는 방식에 더 가깝게 작동하는 민첩하고 하이브리드하며 다국어 시스템을 중심으로 구축될 수 있습니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요

저희 웹사이트는 특정 기능을 활성화하고, 더 관련성 있는 정보를 제공하며, 귀하의 웹사이트 경험을 최적화하기 위해 쿠키를 사용합니다. 자세한 정보는 저희의 개인정보 보호 정책 서비스 약관 에서 확인하실 수 있습니다. 필수 정보는 법적 고지