구글, 차세대 제미니 AI 모델 공개: 50% 비용 절감과 혁신적인 성능 향상

구글, 차세대 제미니 AI 모델 공개: 50% 비용 절감과 혁신적인 성능 향상

작성자
Victor Petrov
8 분 독서

구글, 성능 및 비용 절감을 강화한 새로운 제미니 AI 모델 공개

AI 환경을 재편할 움직임으로 구글은 두 개의 업그레이드된 제미니 AI 모델인 제미니-1.5-Pro-002와 제미니-1.5-Flash-002를 출시했습니다. 2024년 9월에 공개된 이 새로운 모델들은 계산 능력, 속도 및 비용 효율성에서 큰 개선을 제공합니다. 이 모델들은 AI 기반 산업의 증가하는 수요를 충족하기 위해 더 강력하면서도 비용 효율적인 솔루션을 제공합니다. 구글의 목표는 명확합니다: AI의 기능을 향상시키면서 개발자와 기업의 진입 장벽을 낮추는 것입니다.

업데이트된 제미니 AI 모델들은 시각적 이해, 수학 문제 해결 및 코드 생성 등 다양한 작업에서 더 빠른 성능을 제공하도록 최적화되었습니다. 또한 모델들은 입력 및 출력 토큰 가격을 50% 이상 절감하여 AI 개발을 더욱 저렴하게 만들었습니다. 이번 출시는 구글이 OpenAI 및 Anthropic과 같은 AI 산업의 거대 기업들과 경쟁하기 위한 공격적인 전략의 또 다른 단계입니다.

주요 내용

  1. 성능 향상: 제미니-1.5 모델은 눈에 띄는 개선 사항을 제공합니다:

    • 복잡한 다중 작업 학습(MMLU-Pro 벤치마크)에서 7% 향상.
    • 수학 관련 작업(MATH 및 HiddenMath 벤치마크)에서 20% 증가.
    • 파이썬 코드 생성 및 시각적 이해 작업에서 2-7% 성능 개선.
  2. 비용 효율성: 구글은 토큰 입력 및 출력 가격을 50% 이상 절감하여, 특히 128,000 토큰 이하의 프로젝트에 대해 제미니 AI 모델을 더 저렴하게 사용할 수 있도록 하였습니다.

  3. 확장된 기능: 모델들은 더 높은 질의 응답을 제공하도록 개선되었으며, 콘텐츠 안전성을 유지합니다. 또한 텍스트, 시각 및 코드 입력을 결합하여 더 정확한 문제 해결을 위한 다중 모드 기능이 있습니다.

  4. 접근 가능성: 이 모델들은 구글 AI 스튜디오, 제미니 API 및 구글 클라우드의 Vertex AI 등 다양한 플랫폼을 통해 접근할 수 있어 개발자들에게 널리 제공됩니다.

심층 분석

제미니-1.5-Pro-002 및 제미니-1.5-Flash-002의 출시로 구글의 AI 기능이 크게 향상되었습니다. MMLU-Pro 및 HiddenMath와 같은 벤치마크에서 성능 향상은 데이터 분석 및 문제 해결에 의존하는 산업에 필수적인 복잡한 추론 및 수학적 계산에서의 모델의 능력을 강조합니다. 이러한 발전은 기업들이 실시간 의사 결정을 요구하는 작업에 AI를 점점 더 많이 채택하는 시점에서 특히 시의적절합니다.

눈에 띄는 기능은 다중 모드 전문가 혼합(MoE) 아키텍처로, 신경망 내 가장 관련성 높은 전문가 경로를 통해 작업을 효율적으로 라우팅합니다. 이 접근 방식은 모델의 효율성과 확장성을 향상시켜, 최대 100만 토큰의 광범위한 맥락 창을 처리할 수 있도록 하였으며, 일부 사용자는 200만 토큰까지 확장할 수 있습니다. 이러한 혁신은 문서 처리, 긴 맥락 번역 및 복잡한 코딩 애플리케이션과 같은 대규모 AI 작업을 관리하는 기업에 큰 영향을 미칩니다.

토큰 가격을 50% 낮춤으로써 구글은 AI 채택의 가장 큰 장벽 중 하나인 비용 문제를 해결하고 있습니다. 이러한 가격 인하와 컨텍스트 캐싱의 조합은 개발자들이 비싼 가격 없이 강력한 AI 모델을 활용할 수 있게 하여, AI 솔루션의 접근성을 넓히고 있습니다. 이는 구글의 AI 모델을 OpenAI와 같은 경쟁사의 제품보다 경쟁력 있는 대안으로 자리잡게 만듭니다.

제미니 1.5 Pro-002의 채팅 최적화 버전이 나올 것이라는 약속은 고객 서비스, 가상 비서 및 기업 커뮤니케이션 등 대화형 AI가 필요로 하는 분야로의 추가적인 진출을 구글이 의도하고 있다는 신호입니다. 기업들이 계속해서 AI를 워크플로우에 통합함에 따라, 제미니와 같은 전문화되고 적응 가능한 모델에 대한 수요는 더욱 증가할 것입니다.

알고 계셨나요?

  • 제미니 모델은 200만 토큰까지 단일 맥락 창에서 처리할 수 있는 능력이 있어, 전체 책이나 큰 문서도 일관성이나 맥락을 잃지 않고 처리할 수 있는 기능을 제공합니다. 이 특징은 출판, 법률 및 연구 등 산업에서 유용성을 크게 향상시킵니다.

  • 구글은 개발자들과의 피드백을 통해 제미니-1.5의 출력 스타일을 개선하여 코딩, 번역 및 추론 작업과 같은 실제 애플리케이션에 더욱 반응할 수 있도록 하였습니다. 이 피드백 루프는 모델이 다양한 산업의 실제 요구를 충족하는 데 중요한 역할을 합니다.

  • 제미니-1.5-Flash-8B-Exp-0924 모델의 실험적 버전은 텍스트 및 다중 모드 애플리케이션을 위한 최첨단 개선 사항을 포함하고 있으며, 복잡한 워크플로우를 자동화하고 의사 결정 프로세스를 향상시킬 수 있는 미래 개발의 가능성을 암시합니다.

구글의 제미니와 관련된 최신 발전은 AI 분야에서의 지속적인 리더십을 보여주며, 다음 세대 AI 애플리케이션에 필수적인 파워, 효율성 및 가격 경쟁력을 제공합니다. 다중 모드 기능, 확장성 및 비용 절감에 중점을 두고 있는 제미니 모델은 개발자와 기업이 AI의 잠재력을 최대한 활용할 수 있도록 도와주는 필수 도구가 될 것입니다.

당신도 좋아할지도 모릅니다

이 기사는 사용자가 뉴스 제출 규칙 및 지침에 따라 제출한 것입니다. 표지 사진은 설명을 위한 컴퓨터 생성 아트일 뿐이며 실제 내용을 나타내지 않습니다. 이 기사가 저작권을 침해한다고 생각되면, 우리에게 이메일을 보내 신고해 주십시오. 당신의 경계심과 협력은 우리가 예의 바르고 법적으로 준수하는 커뮤니티를 유지하는 데 중요합니다.

뉴스레터 구독하기

최신 기업 비즈니스 및 기술 정보를 독점적으로 엿보며 새로운 오퍼링을 확인하세요