Cloud.ru представил облачный сервис Evolution ML Inference
18:16 17.04.2025
Провайдер облачных и AI-технологий Cloud.ru представил Evolution ML Inference – первый в России готовый облачный сервис для инференса (вывода) больших языковых моделей (LLM) с возможностью разделения графических процессоров (GPU) и гибким подходом к утилизации вычислительных ресурсов.
Помимо уже доступных в рамках сервиса Cloud.ru моделей GigaChat бизнес может запускать и развертывать собственные AI-модели и любые ML/DL open source модели из библиотеки Hugging Face на базе облачных GPU в несколько кликов.
Сервис уже доступен для пользователей в режиме General availability и войдет в состав Cloud.ru Evolution AI Factory – готового набора инструментов для работы с AI в облаке, анонсированного на ежегодной конференции GoCloud.
Evolution ML Inference подойдет для компаний и пользователей, которые разрабатывают AI- и ML-решения и хотят быстро и с минимальными затратами запустить собственную ML-модель и персональный конечный продукт для работы. Это полностью управляемый сервис – пользователь только настраивает конфигурацию, модель и тип масштабирования. При этом Cloud.ru предоставляет доступ к мощным графическим процессорам, а также выполняет полное администрирование и обслуживание инфраструктуры.
Ключевые преимущества сервиса:
– Shared GPU – технология позволяет разделять GPU-ресурсы и потреблять то количество vRAM (видеопамяти), которое необходимо для эффективной работы самой модели без задержек, с возможностью динамически перераспределять ресурсы в зависимости от текущих потребностей клиентов. Это повышает утилизацию мощностей в AI-проектах от 15 до 45% в сравнении со сценарием, когда графические процессоры используется полностью;
– простота и гибкость управления сервисом дают возможность, как запускать модели без необходимости сборки образа напрямую из Hugging Face, так и запускать собственные образы со своим окружением;
– решение обеспечивает высокую степень адаптации и рациональное использование доступных ресурсов: на одной видеокарте можно одновременно запускать несколько моделей. Это делает технологию наиболее оптимальной для распределенных систем с разнородной вычислительной инфраструктурой и помогает эффективно масштабировать нагрузку;
– режим скайлирования (эффективного масштабирования) – тарификация за использование модели начинается только в момент обращения к ней.
«По нашим оценкам, около 70% пользователей загружают GPU-ресурсы, зарезервированные под инференс в процессе эксплуатации ML-моделей, менее чем на 55%, – рассказал генеральный директор провайдера облачных и AI-технологий Cloud.ru Евгений Колбин. – При внедрении AI в большинстве случаев базой становится именно среда исполнения модели. Поэтому для получения экономии ресурсов и оптимизации затрат в ходе использовании технологий искусственного интеллекта, особенно GenAI, необходима производительная инфраструктура с гибким масштабированием в реальном времени».
«Глубоко изучив потребности клиентов и наиболее популярные запросы на инфраструктуру и сервисы для AI, мы представили рынку первый управляемый облачный сервис для инференса LLM. С его помощью бизнес может эффективно управлять вычислительными ресурсами в среде с высокой интенсивностью обработки данных. Благодаря размещению Evolution ML Inference в облаке компании могут упростить доступ к AI и сделать использование AI-инструментов проще и удобнее», – добавил Евгений Колбин.
Комментарии отключены - материал старше 3 дней
Новости
- 22:45 23.12.2025
- Начальник генштаба ливийской армии, предположительно, был в самолете, потерпевшем катастрофу в Турции
- 21:35 23.12.2025
- Спикер парламента Грузии: Если кто-то и мешает мирному соглашению по Украине, то это европейцы
- 20:35 23.12.2025
- Создавать поселения в Газе Израиль не планирует - СМИ
- 20:02 23.12.2025
- ВС РФ разъяснил, какие действия влекут уголовную ответственность по статье «Разжигание ненависти или вражды»
- 18:50 23.12.2025
- Ракетный потенциал Ирана полностью готов к применению... - Генштаб ВС Ирана
- 18:20 23.12.2025
- Лишить людей возможности получать информацию через Telegram «было бы, наверное, неправильно» - глава комитета Госдумы
- 17:12 23.12.2025
- Российских юниоров допустили до турниров по фехтованию с флагом и гимном
- 17:00 23.12.2025
- Половина британцев считают, что Стармер не будет премьером к концу 2026 года — опрос
- 16:32 23.12.2025
- В Западной Европе меняется отношение к конфликту на Украине — Орбан
- 16:30 23.12.2025
- Около 40 тысяч детей из Подмосковья посетят губернаторские елки



комментарии(0)