Claude Haiku 4.5 выходит в открытый доступ: быстрый, экономичный и мощный для повседневных задач

Компания Anthropic представила новую версию своей компактной языковой модели — Claude Haiku 4.5. Несмотря на меньший размер, она демонстрирует те же способности в программировании, что и более крупная модель Sonnet 4, но при этом работает значительно быстрее и обходится в три раза дешевле. Haiku 4.5 станет моделью по умолчанию для всех бесплатных пользователей на платформе Claude.ai.

Благодаря своей скорости и эффективности Haiku 4.5 особенно хорошо справляется с агентными задачами в расширении Claude for Chrome. Anthropic отмечает, что компактная модель идеально подходит для выполнения фоновых операций в связке с более мощными версиями. Например, в паре с Sonnet 4.5 она может выступать в роли подагентов: пока Sonnet занимается стратегическим планированием или сложным анализом, Haiku берёт на себя рутинные, но важные задачи.

Claude Haiku 4.5 выходит в открытый доступ: быстрый, экономичный и мощный для повседневных задач

В сфере разработки Sonnet может проектировать архитектуру кода, а Haiku — выполнять рефакторинг и миграции. В финансовой аналитике Sonnet строит прогнозные модели, тогда как Haiku отслеживает потоки данных, изменения в регулировании, рыночные сигналы и риски портфелей. При научных исследованиях Sonnet проводит глубокий анализ, а Haiku собирает литературу, данные и объединяет информацию из множества источников.

Скорость Haiku 4.5 также улучшает взаимодействие с чат-ботом, обеспечивая мгновенные ответы на запросы пользователей. По словам генерального директора Anthropic Майка Кригера, эта модель создана для тех, кто хочет получить всю мощь и надёжность Claude в лёгкой и доступной форме.

Энергоэффективность малых моделей становится всё более важной в условиях растущих затрат на ИИ-инфраструктуру. Согласно данным MIT Technology Review, запрос к крупной модели (свыше 405 млрд параметров) может потреблять 6 706 джоулей энергии — столько же, сколько микроволновка за восемь секунд. Haiku 4.5, имея около 8 млрд параметров, расходует всего 114 джоулей — менее одной десятой секунды работы той же микроволновки. Для сравнения, обычный поиск в Google требует 1 080 джоулей.

Использование компактных моделей для простых или фоновых задач позволяет существенно снизить нагрузку на серверы и сократить эксплуатационные расходы. Подобный подход уже применяется в индустрии: например, ChatGPT-5 автоматически переключается между моделями в зависимости от сложности запроса. Такие решения становятся ключевыми для устойчивого развития ИИ-сервисов на фоне колоссальных инвестиций в дата-центры.

Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
Прокрутить вверх