Qwen3-32B¶
В этой статье
Информация
Qwen3-32B представляет собой передовую языковую модель нового поколения серии Qwen, требующую существенных вычислительных ресурсов для локального развертывания через платформу Ollama. Развертывание осуществляется на базе современных систем с использованием графических ускорителей NVIDIA. Интеграция с Open Web UI обеспечивает удобный интерфейс для взаимодействия с моделью при сохранении полного контроля над данными.
Основные возможности Qwen3-32B¶
- Многоязычная архитектура: модель обладает 32 миллиардами параметров и поддерживает 119 языков и диалектов, обученная на 36 триллионах слов, что обеспечивает понимание культурных нюансов и высококачественный перевод;
- Режимы работы: оптимизирована как для глубокого рассуждения (thinking mode), так и для быстрых ответов (non-thinking mode), что позволяет адаптироваться к различным типам задач;
- Интеграция с Open Web UI: предоставляет современный веб-интерфейс для удобного взаимодействия с моделью через порт 8080, обеспечивая полный контроль над данными и обработкой запросов;
- Масштабируемость: поддержка различных уровней квантования (FP16, 8-bit, 4-bit) для оптимизации использования памяти в зависимости от доступных ресурсов;
- Безопасность и контроль: полное локальное развертывание обеспечивает конфиденциальность данных, а настройки OLLAMA_HOST и OLLAMA_ORIGINS гарантируют сетевую безопасность;
- Высокая производительность: достигает около 34 токенов в секунду на высокопроизводительных потребительских GPU, что делает модель жизнеспособной для локального использования;
- Отказоустойчивость: встроенная система автоматического перезапуска контейнеров и сервисов обеспечивает стабильную работу.
- Примеры использования:
- Клиентская поддержка: автоматизация ответов на вопросы пользователей с поддержкой множества языков;
- Образование: создание обучающих материалов, помощь в решении сложных задач;
- Программирование: генерация и анализ кода с поддержкой различных языков программирования;
- Многоязычный контент: создание и перевод текстов с учетом культурной специфики.
Особенности сборки¶
ID | Совместимые ОС | VPS | BM | VGPU | GPU | Мин. ЦПУ (Ядер) | Мин. ОЗУ (Гб) | Мин. HDD/SDD (Гб) | Доступно |
---|---|---|---|---|---|---|---|---|---|
334 | Ubuntu 22.04 | - | - | + | + | 4 | 64 | - | Да |
- Время на установку 20-40 минут вместе с OS;
- Сервер Ollama загружает и запускает модель Qwen3-32B в память GPU/RAM;
- Open WebUI развертывается как веб-приложение, подключенное к серверу Ollama;
- Пользователи взаимодействуют с моделью через веб-интерфейс Open WebUI, отправляя запросы и получая ответы;
- Все вычисления и обработка данных происходят локально на сервере с поддержкой многоязычности;
- Администраторы могут настраивать модель для специфических задач через инструменты OpenWebUI.
Начало работы после развертывания Qwen3-32B¶
После оплаты заказа на указанную при регистрации электронную почту придет уведомление о готовности сервера к работе. В нем будет указан IP-адрес VPS, а также логин и пароль для подключения к серверу и ссылка для доступа к панели OpenWebUI. Управление оборудованием клиенты нашей компании осуществляют в панели управления серверами и API — Invapi.
-
Данные для авторизации для доступа к операционной системе сервера (например по SSH) придут к вам в присланном e-mail.
-
Ссылка для доступа к панели управления Ollama c Open WebUI с веб-интерфейсом: в теге webpanel во вкладке Информация >> Тэги панели управления Invapi. Точная ссылка вида
https:qwen3-32b<Server_ID_from_Invapi>.hostkey.in
приходит в письме, отправляемом при сдаче сервера.
При первом переходе по ссылке из тега webpanel откроется приветственная страница. Нажмите кнопку Get started для начала настройки:
На странице "Get started with Open WebUI" заполните регистрационную форму администратора: - Name: введите имя администратора; - Email: укажите email администратора; - Password: создайте надежный пароль. После ввода данных Нажмите кнопку Create Admin Account:
После успешной регистрации откроется главный интерфейс Open WebUI:
Примечание
Подробное описание особенностей работы с панелью управления Ollama c Open WebUI можно найти в статье AI-чат-бот на собственном сервере
Примечание
Для оптимальной работы рекомендуется использовать GPU с объемом видеопамяти больше минимального требования в 16 ГБ, что обеспечит запас для обработки больших контекстов и параллельных запросов. Подробная информация по основным настройкам Ollama и Open WebUI содержится в документации разработчиков Ollama и в документации разработчиков Open WebUI.
Заказ сервера с Qwen3-32B с помощью API¶
Для установки данного ПО с использованием API следуйте этой инструкции.