Общий интеллект Gemini 2.5 Pro Experimental демонстрирует более высокие показатели (Artificial Analysis Intelligence Index: 68) по сравнению с Gemma 3 27b (38). MMLU-Pro: 86% против 67%.
Рассуждение и знания GPQA Diamond: 83% против 43%. Humanity’s Last Exam: 17.7% против 4.7%. Gemma 3 27B IT сравнима с Gemini 1.5 Pro в MMLU-Pro.
Кодирование LiveCodeBench: 71% против 14%. SciCode: 39% против 21%. HumanEval: 97% против 89%. Gemma 3 27b лидирует среди open-source моделей в LMArena. Gemini 2.5 Pro лучше справляется с повседневным кодированием, чем Claude 3.7 Sonnet.
Математическое рассуждение Artificial Analysis Math Index: 94 против 57. Gemini 2.5 Pro занимает первое место в MathArena и показывает высокие результаты в AIME.
Длинный контекст Gemini 2.5 Pro Experimental: 1 млн токенов, Gemma 3 27b: 128 тыс. токенов. Gemini 2.0 Pro: 2 млн токенов. Gemma 3 также имеет увеличенный контекст по сравнению с Gemma 2.
Gemini 2 Семейство включает Ultra, Pro, Flash и Nano. Gemini 2.0 Flash — рабочая модель с улучшенной производительностью и Live API. Контекстное окно: 1 млн токенов (Flash и Flash-Lite).
Gemini 2.5 Первая модель серии 2.5 на «думающей архитектуре». Использует верификатор цепочки рассуждений и динамическое распределение ресурсов. Гибридная MoE-Transformer архитектура. Контекстное окно: 1 млн токенов (планируется 2 млн).
Gemma 3 Набор облегченных open-source моделей (1B, 4B, 12B, 27B). Архитектура Transformer (только декодер) с улучшениями для масштабирования. Используются GQA и RoPE. Контекстное окно: 128 тыс. токенов (для больших моделей). Модели 4B, 12B и 27B поддерживают мультимодальность (текст и изображения).
Gemini 2 и 2.5 Предварительное обучение на разнообразных общедоступных данных с фильтрацией качества и безопасности. Используются SFT и RLHF. Gemini 2.0 построен на JAX/XLA AI. Gemini 2.5 улучшена за счет базовой модели и постобработки.
Gemma 3 Обучающие наборы данных: 27b — 14 трлн токенов, 12b — 12 трлн токенов (веб-документы, код, математика, изображения). Включены многоязычные данные. Используется дистилляция знаний , RLHF и RLMF , а также QAT.
Естественный язык Gemma 3 подходит для генерации текста и понимания изображений (ответы на вопросы, обобщение, рассуждение). Улучшена многоязычность по сравнению с Gemma 2. Gemini 2.5 Pro демонстрирует высокие результаты при работе с длинным контекстом.
Рассуждение Gemini 2.5 Pro показывает передовую производительность в задачах рассуждения. Gemma 3 27B IT демонстрирует конкурентоспособные результаты в Chatbot Arena. Gemini 2.5 Pro также силен в математике и науке.
Кодирование Gemini 2.5 Pro обладает продвинутыми возможностями в кодировании (веб-приложения, агентные приложения). Gemma 3 27b — ведущая open-source модель для кодирования. Отмечаются проблемы Gemini 2.5 Pro с отслеживанием версий кода.
Gemini 2 Крупномасштабная проприетарная модель, требующая значительных ресурсов.
Gemini 2.5 Способен обрабатывать до восьми миллионов токенов в минуту.
Gemma 3 Разработана для работы на различных устройствах (телефоны, рабочие станции). Требования к VRAM для Gemma 3 27B: 62.1 ГБ (полная точность), 15.5 ГБ
Gemini 2 Положительные отзывы о помощи в кодировании. Отзывы о программе «Gemini 2» для поиска дубликатов файлов на Mac также в основном положительные.
Gemini 2.5 Неоднозначные отзывы. Хвалят за кодирование и большой контекст , но сообщают о непоследовательной производительности и проблемах с контекстом.
Gemma 3 Модели Gemma 3, особенно 27b, в целом хорошо приняты за производительность относительно размера. Отмечается склонность к галлюцинациям у Gemma 3 27b. Gemma 3 1b получила положительные отзывы за свою производительность при небольшом размере.
Характеристика |
Gemini 2 (Flash) |
Gemini 2.5 (Pro Experimental) |
Gemma 3 27b |
Gemma 3 12b |
Количество параметров |
- |
128B MoE + 12B Verifier |
27 млрд |
12 млрд |
Размер контекстного окна |
1 млн токенов |
1 млн (скоро 2 млн) токенов |
128 тыс. токенов |
128 тыс. токенов |
Мультимодальность |
Ввод: текст, изображения, аудио, видео |
Ввод: текст, изображения, аудио, видео |
Ввод: текст, изображения |
Ввод: текст, изображения |
MMLU-Pro |
- |
86% |
67% |
59.5% |
HumanEval |
- |
97% |
89% |
- |
Открытый исходный код |
Нет |
Нет |
Да |
Да |
Требования к VRAM |
Значительные |
- |
62.1 ГБ (полная точность) |
27.6 ГБ (полная точность) |
Ключевые особенности |
Быстрая производительность, Live API |
Думающая архитектура, верификатор |
Эффективность, мультимодальность |
Эффективность, мультимодальность |
Размер обучающих данных |
- |
85T токенов (текст) |
14 трлн токенов |
12 трлн токенов |
Gemini 2.5 Pro Experimental превосходит Gemma 3 27b и 12b по большинству тестов, особенно в рассуждении, математике и кодировании, а также имеет больший контекст. Gemini 2.0 Flash также предлагает высокую производительность и большой контекст.
Модели Gemma 3 более эффективны с точки зрения ресурсов и доступны как open-source. Gemma 3 27b является конкурентоспособной моделью, часто сравнимой с более крупными проприетарными моделями.
Рекомендации для разработчиков
Для задач, требующих максимальной производительности и обработки больших контекстов: Gemini 2.5 Pro Experimental
Для быстрой работы и большого контекста: Gemini 2.0 Flash
Для open-source, эффективности и хорошей общей производительности при ограничениях на оборудование: Gemma 3 27b Подходит для мультимодальных задач
Более экономичный вариант: Gemma 3 12b
Выбор модели зависит от требований приложения, приоритетов (производительность или эффективность) и доступной инфраструктуры.