Array
(
    [__flash] => Array
        (
        )

    [guest] => Array
        (
            [hash_id] => j079r5156t0tjmfsd69umicf3h
        )

)
Серверы
  • Готовые серверы
  • Конфигуратор
  • Серверы с 1CPU
  • Серверы с 2CPU
  • 4 поколение AMD EPYC и Intel Xeоn
  • Серверы с AMD Ryzen и Intel Core i9
  • Серверы для хранения данных
  • Cерверы с портом 10 Гбит/c
  • GPU
  • Распродажа
  • VPS
    GPU
  • Выделенные серверы с GPU
  • Виртуальные серверы с GPU
  • GPU-серверы с Nvidia RTX 5090
  • GPU-серверы с AMD Radeon
  • Распродажа
    Маркетплейс
    Colocation
  • Размещение серверов в дата-центре в Москве
  • Обслуживание серверов в других ЦОД
  • Прокат
    Услуги
  • Аренда сетевого оборудования
  • Защита L3-L4 от DDoS атак
  • IPV4 и IPV6 адреса
  • Администрирование серверов
  • Уровни технической поддержки
  • Мониторинг сервера
  • BYOIP
  • USB диск
  • IP-KVM
  • Трафик
  • Коммутация серверов
  • AI-чат-бот Lite
  • AI-платформа
  • О нас
  • Работа в HOSTKEY
  • Панель управления серверами и API
  • Дата-центры
  • Сеть
  • Тест скорости
  • Специальные предложения
  • Отдел продаж
  • Для реселлеров
  • Гранты для специалистов по Data Science
  • Гранты для научных проектов и стартапов
  • Документация и Частые вопросы
  • Новости
  • Блог
  • Оплата
  • Документы
  • Сообщите о нарушении
  • Looking Glass
  • AI-платформа

    Предустановленные языковые LLM-модели на высокопроизводительных серверах с GPU-картами

    • Установка уже выполнена — сразу приступите к работе с LLM-моделью, не тратя времени на ее установку.
    • Сервер оптимизирован — высокопроизводительные серверы с GPU-картами, оптимизированные для работы с LLM.
    • Стабильная версия — вы выбираете версию LLM-модели, которая не меняется и не обновляется без вашей команды.
    • Безопасность и конфиденциальность данных — все данные находятся и обрабатываются на вашем сервере и не попадают во внешнюю среду.
    • Прозрачная цена — вы платите только за аренду сервера: работа и нагрузка нейросети не тарифицируется и полностью бесплатна.
    4.3/5
    4.8/5
    СЕРВЕРОВ Сейчас в работе 5 000+

    Лучшие LLM-модели на профессиональных серверах с GPU-картами

    DeepSeek-r1-14b

    DeepSeek-r1-14b

    LLM с открытым исходным кодом из Китая — первое поколение моделей с механизмом рассуждений, сопоставимое с OpenAI-o1.

    Gemma-2-27b-it

    Gemma-2-27b-it

    Gemma 2 — высокопроизводительная и эффективная модель, доступная в трех размерах: 2B, 9B и 27B.

    Llama-3.3-70B

    Llama-3.3-70B

    Современная LLM модель с 70B параметрами и открытым исходным кодом. По своим показателям сопоставима с прошлой версией 3.1 405B.

    Phi-4-14b

    Phi-4-14b

    Phi-4 — это современная модель с 14B параметрами и открытым исходным кодом.

    Лучшие выделенные и виртуальные серверы с индивидуальной GPU-картой

    ⏱️
    GPU-серверы доступны как на основе почасовой, так и на основе месячной оплаты. Прочитайте, как работает почасовая аренда сервера.

    Выберите страну размещения сервера

    Персональный AI-чат-бот на вашем собственном сервере.

    Доступные языковые LLM-модели и AI-решения

    Большие языковые LLM-модели

    • gemma-2-27b-it — высокопроизводительная и эффективная модель, доступная в трех размерах: 2B, 9B и 27B.
    • DeepSeek-r1-14b — LLM с открытым исходным кодом из Китая — первое поколение моделей с механизмом рассуждений, сопоставимое с OpenAI-o1.
    • Llama-3.3-70B — современная LLM с 70B параметров и открытым исходным кодом. По своим показателям сопоставима с прошлой версией 3.1 405B.
    • Phi-4-14b. Phi-4 — это современная модель с 14B параметров и открытым исходным кодом.

    Генерация изображений

    • ComfyUI — генератор изображений из текстовых промптов с открытым исходным кодом, размещенный на ноде.

    AI-Решения, Фреймворки и Инструменты

    • AI-чатбот — персональный чат-бот на основе Ollama, LLM с открытым исходным кодом Llama3 и OpenWebUI-интерфейс на вашем собственном сервере.
    • PyTorch — бесплатная платформа для создания моделей глубокого обучения с открытым исходным кодом.
    • TensorFlow — библиотека ПО с открытым исходным кодом для машинного обучения и искусственного интеллекта.
    • Apache Spark — мультиязычный движок для выполнения задач по инжинирингу данных, дата сайнс и машинному обучению на нодах или кластерах.
    Уже установлено
    Мы предоставляем LLM в качестве предустановленного программного обеспечения, экономя ваше время на загрузку и установку. Наша система автоматического деплоя сделает все за вас — просто разместите заказ и уже через 15 минут вы сможете приступить к работе.
    Оптимальный сервер
    Наши высокопроизводительные серверы с GPU-картами идеально подходят для работы с LLM. Будьте уверены, каждый выбранная вами LLM обеспечит оптимальную производительность на рекомендуемых серверах.
    Стабильность версий
    Если ваш программный продукт работает с использованием LLM, будьте уверены: никаких неожиданных изменений и обновлений модели не будет. Выбрав версию LLM, вы не столкнетесь с неприятными сюрпризами.
    Прозрачное ценообразование
    В HOSTKEY вы платите только за аренду сервера — и никаких дополнительных сборов. Все предустановленные LLM предоставляются бесплатно и без ограничений на их использование. У вас нет ограничений по числу токенов, числу запросов в единицу времени и т. п. — цена будет зависеть только от арендуемых мощностей.
    Независимость от поставщиков IT-услуг
    Вы можете выбрать наиболее подходящий для себя вариант нейросети из сотен LLM с открытым кодом. Вы всегда можете установить другие модели, подходящие для решения вашей задачи. Версия используемой модели полностью контролируется вами.
    Безопасность и конфиденциальность данных
    LLM развернута на собственной серверной инфраструктуре, ваши данные полностью защищены и находятся под вашим контролем. Они не загружаются и не обрабатываются во внешней среде.

    Получите LLM-модель на профессиональном сервере с индивидуальной GPU-картой

    FAQ

    Могу ли я арендовать виртуальный сервер на базе почасовой оплаты?

    На базе почасовой оплаты можно арендовать:

    • готовые выделенные серверы, в том числе с GPU-картами;
    • виртуальные серверы с GPU-картами;
    • обычные VPS.

    Минимальный срок аренды виртуальных серверов без GPU-карт и выделенных серверов с индивидуальными конфигурациями — 1 месяц.

    Могу ли я арендовать выделенный сервер с индивидуальной конфигурацией на базе почасовой оплаты?

    Нет, почасовая оплата для таких серверов не предусмотрена. Минимальный срок аренды серверов с индивидуальной конфигурацией составляет 1 месяц.

    Какие ресурсы будут мне доступны при аренде?

    При аренде VPS сервера с GPU вы получаете все его ресурсы:

    • ядра процессора;
    • видеокарту;
    • производительную систему хранения.

    Помимо этого, вы получаете возможность самостоятельно установить и использовать любое необходимое ПО для работы при почасовой аренде сервера с GPU, а также при аренде оборудования на любой продолжительный срок.

    Разрешает ли NVIDIA сдавать в аренду серверы с их оборудованием?

    Уже несколько лет компания NVIDIA наложила ограничения на использование собственных видеокарт в ЦОДах, однако в соответствии с правилами компании, запрет не действует, если ЦОД допускает применение блокчейна.

    Поэтому мы совершенно легально предоставляем клиентам выделенные серверы с видеокартами и драйверами от NVIDIA.

    Что делать, если нет видеокарты, которая нужна мне?

    Мы постоянно обновляем парк оборудования, поэтому вы можете связаться с нашими специалистами, они скажут, появится ли в ближайшее время необходимая вам видеокарта.

    HOSTKEY Выделенные серверы в Европе, России и США Готовые решения и индивидуальные конфигурации серверов на базе процессоров AMD, Intel, карт GPU, Бесплатной защитой от DDoS-атак и безлимитный соединением на скорости 1 Гбит/с 30
    4.3 48 48
    Upload