
Российский провайдер «Турбо Облако» выпустил новую платформу для работы с ИИ‑моделями. Сервис поможет компаниям быстрее внедрять искусственный интеллект без лишних затрат на инфраструктуру.
Компания «Турбо Облако», которая входит в коммерческий ИТ‑кластер «Ростелекома», представила Inference Platform — специальную платформу для развёртывания и эксплуатации моделей искусственного интеллекта. Сейчас сервис открыт для тестирования. Организации могут опробовать его на своих ИИ‑решениях и оценить все возможности на практике.
Многие современные проекты с использованием ИИ сталкиваются с серьёзными сложностями. Дело не только в том, что им нужны мощные вычислительные ресурсы, ещё приходится тратить немало сил на создание и поддержку инфраструктуры. Из‑за этого команды разработчиков оказываются перегружены, а запуск и внедрение проектов заметно затягивается. Inference Platform как раз призвана решить эти проблемы: она даёт готовый облачный сервис, который берёт на себя всю техническую работу с ИИ‑моделями.
Платформа совместима с разными типами решений, в том числе с популярными в России open source‑разработками. Пользователям не нужно подстраивать свои процессы под жёсткие рамки: они могут загружать собственные модели либо использовать готовые контейнерные образы. Всё разворачивается в облачной среде без дополнительных настроек инфраструктуры, что экономит время и силы.
Одно из ключевых преимуществ сервиса — автоматическое масштабирование ресурсов, или автоскейлинг. Система гибко реагирует на нагрузку: если запросов к модели становится больше, ресурсы увеличиваются, а если нагрузка падает, они сокращаются до полной остановки вычислений. Такой подход помогает грамотно использовать графические процессоры (GPU) и заметно снижать затраты, особенно когда нагрузка неравномерна. Ещё один плюс — поминутная тарификация. Она даёт более точный контроль расходов по сравнению с традиционной почасовой оплатой.
Inference Platform хорошо подходит и для ресурсоёмких задач. Платформа поддерживает распределённый инференс. Это значит, что можно запускать модели объёмом до одного триллиона параметров. Они размещаются сразу на нескольких вычислительных узлах, а для их взаимодействия используется высокоскоростная сеть InfiniBand с минимальной задержкой. Благодаря этому удаётся объединять множество серверов и графических ускорителей, чтобы дообучать крупные модели. Кроме того, сервис предлагает гибкое использование GPU‑ресурсов: их можно дробить под задачи меньшего объёма, что делает работу ещё эффективнее.
В основе платформы — мощные графические ускорители NVIDIA H200 SXM. Они обеспечивают высокую производительность и достаточный объём видеопамяти, чтобы справляться с серьёзными ИИ‑нагрузками. Важно, что Inference Platform объединяет работу с моделями разного масштаба в единой среде управления. В итоге пользователь получает готовый сервис с доступом по URL. Его легко интегрировать в уже существующие бизнес‑приложения, причём без каких‑либо изменений в архитектуре. Узнать подробнее о сервисах и решениях «Ростелекома» для информационной безопасности можно на официальном сайте компании.
О том, что «Ростелеком» и «Турбо Облако» организовали систему резервного хранения оцифрованной коллекции Эрмитажа, можно прочитать здесь.
Фото: пресс-центр «Ростелекома»
Реклама: ПАО «Ростелеком» ИНН 7707049388 erid:2SDnjdpkfVt
Оперативные новости в вашем мобильном: телеграм-канал «РЕГИОН ОНЛАЙН»
Все новости:
news-r.ru
79475

Загрузка...