Google внедрил модель Gemini 3 Flash в качестве базового интеллекта для приложения Gemini и режима AI Mode в Поиске. Это обновление даёт пользователям более быстрые ответы и снижает эксплуатационные издержки без ущерба для качества рассуждений. Бесплатные пользователи автоматически получают переход с Gemini 2.5 Flash на новую версию, а AI Mode в Поиске теперь формирует более подробные и мгновенные результаты по всему миру.

Функциональность и производительность под капотом
Gemini 3 Flash позиционируется как модель «передового интеллекта в масштабе»: она демонстрирует результаты, близкие к Gemini 3 Pro, в таких тестах, как GPQA Diamond и Humanity’s Last Exam. На мультимодальных бенчмарках, включая MMMU Pro, модель показывает улучшенную способность обрабатывать изображения и текст с меньшим числом галлюцинаций. В типичных сценариях использования она работает примерно в три раза быстрее Gemini 2.5 Pro и потребляет на 30 % меньше токенов за счёт адаптивной глубины «размышлений».
Доступ для разработчиков и корпоративных клиентов
Разработчики уже могут использовать Gemini 3 Flash в предварительном режиме через Gemini API. Модель интегрирована в Google AI Studio, Gemini CLI, Android Studio, платформу агентов Antigravity, Vertex AI и Gemini Enterprise. Стоимость составляет $0,50 за миллион входных токенов и $3 за миллион выходных, что делает её экономически выгодной альтернативой более тяжёлым моделям при сохранении возможностей мультимодального анализа, программирования и работы с видео.
Обновление AI Mode в Google Поиске
В Поиске Gemini 3 Flash лежит в основе обновлённого AI Mode, который теперь не просто агрегирует ссылки, а структурирует ответы на сложные запросы. Система учитывает локальные данные, текущие веб-результаты и намерения пользователя, предлагая чёткие рекомендации — например, при планировании поездок или изучении новых тем. Благодаря оптимизации под задержку, такие развернутые ответы появляются практически мгновенно, не замедляя привычный поиск.
Стратегическое значение для Google и рынка ИИ
Запуск Gemini 3 Flash совпал по времени с выходом GPT-5.2 от OpenAI, что подчёркивает общий тренд: лидеры ИИ-индустрии стремятся внедрять самые быстрые и экономичные модели в повседневные продукты. Для Google это означает охват миллионов пользователей без необходимости изменения тарифов или настроек, что укрепляет позиции Gemini среди конкурентов. На корпоративном уровне агрессивное ценообразование и трёхкратный прирост скорости могут сделать Flash предпочтительным выбором для высоконагруженных приложений.
Новый стандарт по умолчанию
Gemini 3 Flash переопределяет понятие «базовой» модели в экосистеме Google. Пользователи получают более острый и отзывчивый ИИ в повседневных сценариях, а разработчики — инструмент, сочетающий производительность флагманских решений с доступной стоимостью. Если заявленные характеристики подтвердятся в реальных условиях, именно Flash станет рабочей лошадкой семейства Gemini 3.


