Перейти к содержанию

Qwen3-32B

В этой статье

Информация

Qwen3-32B представляет собой передовую языковую модель нового поколения серии Qwen, требующую существенных вычислительных ресурсов для локального развертывания через платформу Ollama. Развертывание осуществляется на базе современных систем с использованием графических ускорителей NVIDIA. Интеграция с Open Web UI обеспечивает удобный интерфейс для взаимодействия с моделью при сохранении полного контроля над данными.

Основные возможности Qwen3-32B

  • Многоязычная архитектура: модель обладает 32 миллиардами параметров и поддерживает 119 языков и диалектов, обученная на 36 триллионах слов, что обеспечивает понимание культурных нюансов и высококачественный перевод;
  • Режимы работы: оптимизирована как для глубокого рассуждения (thinking mode), так и для быстрых ответов (non-thinking mode), что позволяет адаптироваться к различным типам задач;
  • Интеграция с Open Web UI: предоставляет современный веб-интерфейс для удобного взаимодействия с моделью через порт 8080, обеспечивая полный контроль над данными и обработкой запросов;
  • Масштабируемость: поддержка различных уровней квантования (FP16, 8-bit, 4-bit) для оптимизации использования памяти в зависимости от доступных ресурсов;
  • Безопасность и контроль: полное локальное развертывание обеспечивает конфиденциальность данных, а настройки OLLAMA_HOST и OLLAMA_ORIGINS гарантируют сетевую безопасность;
  • Высокая производительность: достигает около 34 токенов в секунду на высокопроизводительных потребительских GPU, что делает модель жизнеспособной для локального использования;
  • Отказоустойчивость: встроенная система автоматического перезапуска контейнеров и сервисов обеспечивает стабильную работу.
  • Примеры использования:
    • Клиентская поддержка: автоматизация ответов на вопросы пользователей с поддержкой множества языков;
    • Образование: создание обучающих материалов, помощь в решении сложных задач;
    • Программирование: генерация и анализ кода с поддержкой различных языков программирования;
    • Многоязычный контент: создание и перевод текстов с учетом культурной специфики.

Особенности сборки

ID Совместимые ОС VPS BM VGPU GPU Мин. ЦПУ (Ядер) Мин. ОЗУ (Гб) Мин. HDD/SDD (Гб) Доступно
334 Ubuntu 22.04 - - + + 4 64 - Да
  • Время на установку 20-40 минут вместе с OS;
  • Сервер Ollama загружает и запускает модель Qwen3-32B в память GPU/RAM;
  • Open WebUI развертывается как веб-приложение, подключенное к серверу Ollama;
  • Пользователи взаимодействуют с моделью через веб-интерфейс Open WebUI, отправляя запросы и получая ответы;
  • Все вычисления и обработка данных происходят локально на сервере с поддержкой многоязычности;
  • Администраторы могут настраивать модель для специфических задач через инструменты OpenWebUI.

Начало работы после развертывания Qwen3-32B

После оплаты заказа на указанную при регистрации электронную почту придет уведомление о готовности сервера к работе. В нем будет указан IP-адрес VPS, а также логин и пароль для подключения к серверу и ссылка для доступа к панели OpenWebUI. Управление оборудованием клиенты нашей компании осуществляют в панели управления серверами и APIInvapi.

  • Данные для авторизации для доступа к операционной системе сервера (например по SSH) придут к вам в присланном e-mail.

  • Ссылка для доступа к панели управления Ollama c Open WebUI с веб-интерфейсом: в теге webpanel во вкладке Информация >> Тэги панели управления Invapi. Точная ссылка вида https:qwen3-32b<Server_ID_from_Invapi>.hostkey.in приходит в письме, отправляемом при сдаче сервера.

При первом переходе по ссылке из тега webpanel откроется приветственная страница. Нажмите кнопку Get started для начала настройки:

На странице "Get started with Open WebUI" заполните регистрационную форму администратора: - Name: введите имя администратора; - Email: укажите email администратора; - Password: создайте надежный пароль. После ввода данных Нажмите кнопку Create Admin Account:

После успешной регистрации откроется главный интерфейс Open WebUI:

Примечание

Подробное описание особенностей работы с панелью управления Ollama c Open WebUI можно найти в статье AI-чат-бот на собственном сервере

Примечание

Для оптимальной работы рекомендуется использовать GPU с объемом видеопамяти больше минимального требования в 16 ГБ, что обеспечит запас для обработки больших контекстов и параллельных запросов. Подробная информация по основным настройкам Ollama и Open WebUI содержится в документации разработчиков Ollama и в документации разработчиков Open WebUI.

Заказ сервера с Qwen3-32B с помощью API

Для установки данного ПО с использованием API следуйте этой инструкции.

question_mark
Я могу вам чем-то помочь?
question_mark
ИИ Помощник ×