Новый уровень работы с ИИ: «Турбо Облако» от «Ростелеком» представило платформу с автоскейлингом и гибкой тарификацией


Российский провайдер «Турбо Облако» выпустил новую платформу для работы с ИИ‑моделями. Сервис поможет компаниям быстрее внедрять искусственный интеллект без лишних затрат на инфраструктуру.

Компания «Турбо Облако», которая входит в коммерческий ИТ‑кластер «Ростелекома», представила Inference Platform — специальную платформу для развёртывания и эксплуатации моделей искусственного интеллекта. Сейчас сервис открыт для тестирования. Организации могут опробовать его на своих ИИ‑решениях и оценить все возможности на практике.

Многие современные проекты с использованием ИИ сталкиваются с серьёзными сложностями. Дело не только в том, что им нужны мощные вычислительные ресурсы, ещё приходится тратить немало сил на создание и поддержку инфраструктуры. Из‑за этого команды разработчиков оказываются перегружены, а запуск и внедрение проектов заметно затягивается. Inference Platform как раз призвана решить эти проблемы: она даёт готовый облачный сервис, который берёт на себя всю техническую работу с ИИ‑моделями.

Платформа совместима с разными типами решений, в том числе с популярными в России open source‑разработками. Пользователям не нужно подстраивать свои процессы под жёсткие рамки: они могут загружать собственные модели либо использовать готовые контейнерные образы. Всё разворачивается в облачной среде без дополнительных настроек инфраструктуры, что экономит время и силы.

Одно из ключевых преимуществ сервиса — автоматическое масштабирование ресурсов, или автоскейлинг. Система гибко реагирует на нагрузку: если запросов к модели становится больше, ресурсы увеличиваются, а если нагрузка падает, они сокращаются до полной остановки вычислений. Такой подход помогает грамотно использовать графические процессоры (GPU) и заметно снижать затраты, особенно когда нагрузка неравномерна. Ещё один плюс — поминутная тарификация. Она даёт более точный контроль расходов по сравнению с традиционной почасовой оплатой.

Inference Platform хорошо подходит и для ресурсоёмких задач. Платформа поддерживает распределённый инференс. Это значит, что можно запускать модели объёмом до одного триллиона параметров. Они размещаются сразу на нескольких вычислительных узлах, а для их взаимодействия используется высокоскоростная сеть InfiniBand с минимальной задержкой. Благодаря этому удаётся объединять множество серверов и графических ускорителей, чтобы дообучать крупные модели. Кроме того, сервис предлагает гибкое использование GPU‑ресурсов: их можно дробить под задачи меньшего объёма, что делает работу ещё эффективнее.

В основе платформы — мощные графические ускорители NVIDIA H200 SXM. Они обеспечивают высокую производительность и достаточный объём видеопамяти, чтобы справляться с серьёзными ИИ‑нагрузками. Важно, что Inference Platform объединяет работу с моделями разного масштаба в единой среде управления. В итоге пользователь получает готовый сервис с доступом по URL. Его легко интегрировать в уже существующие бизнес‑приложения, причём без каких‑либо изменений в архитектуре. Узнать подробнее о сервисах и решениях «Ростелекома» для информационной безопасности можно на официальном сайте компании.

О том, что «Ростелеком» и «Турбо Облако» организовали систему резервного хранения оцифрованной коллекции Эрмитажа, можно прочитать здесь.

Фото: пресс-центр «Ростелекома»

Реклама: ПАО «Ростелеком» ИНН 7707049388 erid:2SDnjdpkfVt

Оперативные новости в вашем мобильном: телеграм-канал «РЕГИОН ОНЛАЙН»
  • news-r.ru
  • СМИ России
  • 23-04-2026, 19:53