Сервер AMD Ryzen 7950X — 12 000 ₽ в мес. или 17 ₽ в час ⭐ 16 ядер, 4,5 ГГц / 128 ГБ RAM / 4 ТБ NVMe

14.02.2025

Что нового в OpenWebUI версий 0.5.x

server one
HOSTKEY

Еще в прошлом году, 25 декабря, OpenWebUI обновился до версии 0.5.0 и один из лучших интерфейса работы с моделями в Ollama начал новый этап своей жизни. Давайте рассмотрим, что нового появилось за 1.5 месяца разработки и что теперь он предлагает в версии 0.5.12.

  1. Асинхронные чаты с нотификациями. Теперь вы можете начать чат, перейти в другие чаты чтобы посмотреть какую то информацию и вернуться назад и ничего не потерять, как было раньше. Работа с моделью ведется в асинхронном режиме и когда она закончит выдачу информации вы получите нотификацию об этом.

  2. Swagger документация OpenWebUI доступна теперь оффлайн и не требует подключения к сети интернет. Не забудьте также про один момент: в docker образе OpenWebUI в строке запуска необходимо передавать переменную -e ENV='dev' иначе он запустится в prod режиме и без доступа к API документации.

  3. Поддержка Kokoro-JS TTS. Пока только для английского и британского английского, но работает прямо в вашем браузере с хорошим качеством озвучки. Ждем русские голоса в моделях.

AI-платформа: предустановленные языковые LLM-модели на высокопроизводительных серверах с GPU-картами.

Арендуйте высокопроизводительный сервер с GPU картой с предустановленными лучшими LLM-моделями:

  • DeepSeek-r1-14b
  • Gemma-2-27b-it
  • Llama-3.3-70B
  • Phi-4-14b

🔶 Карты NVIDIA RTX4090 🔶 Почасовая оплата 🔶 Скидки до 30%

Заказать

  1. Появился режим Code Interpreter, которые позволяет запускать код через Pyoide и Jupyter и улучшать результаты вывода. Включается в Settings - Admin Settings - Conde Interpreter, доступ к Jupiter идет через внешний сервер с ним.

  2. Поддержка “думающих” моделей и вывода размышления в отдельных вкладках. Теперь можно поставить модель типа DeepSeek-R1 и посмотреть, как модель интерпретирует промт, “размышляя” над ним.

  3. Генерацию изображений можно делать (при подключенном сервисе ComfyUI, Automatic1111 или другом сервисе) прямо из промта ввода, достаточно включить переключатель Image в меню + слева промта.

  4. Документы теперь можно подгружать не только в виде файлов, но и через Google Drive. К сожалению удобный способ щелкнуть на пункт меню и выбрать аккаунт для авторизации доступа не получится, нужно заводить OAuth клиента, проект в Google, получать ключи доступа к API и передавать переменные в инстанс OpenWebUI при записи. То же самое с доступом к S3 хранилищам. Ждем удобного решения, понятного большинству пользователей.

  5. Веб-поиск можно включить на постоянной основе, чтобы получать релевантные результаты, как это сделано в том же ChatGPT. Делается это в Settings - Interface в пункте Allows users to enable Web Search by default.

  6. Переработанный пункт меню работы с моделями. Теперь можно включать и выключать модели и гибко их настраивать. Кто потерял пункт удаления моделей, то он теперь зачем-то засунут под маленький значок скачивания Manage Models в правом верхнем углу раздела. Нажав на него получите привычное окно добавления и удаления моделей в Ollama.

  7. Гибкая настройка прав для моделей и пользователей. Теперь нужно пользователей заводить в группы, а уже группам давать доступ к моделям и настраивать доступ к функция OpenWebUI, разрешив или запретив им те или иные действия как в Workspace, так и с чатами.

  8. Новые меню дополнительных функций для чата, вызываемое по нажатию на три точки в правом верхнем углу. Позволяет поделиться чатом и совместно работать над ним. Также можно посмотреть схему чатов (Overview), вывести окно вывода HTML и SVG генерации в реальном времени (раздел Artifacts), чтобы сразу видеть изменения, скачать весь чат в json, txt или PDF, скопировать его в буфер обмена или добавить теги для последующего поиска.

  9. Авторизация через LDAP. Если вы используете OpenWebUI в организации, то просто подключите его к вашему серверу авторизации, задав нужные атрибуты для почты и имени пользователя. В группы пользователей увы придется распределять вручную.

  10. Каналы (Channels). Это чаты внутри OpenWebUI между пользователями. После создания, их видят все пользователи или пользователи определенных групп и в них они могут общаться между собой. Для доступа к этой функции необходимо включить их в Settings - Admin Settings - General.

И еще много других улучшений, включая поддержку OAuth, запуска tools и functions самими моделями, мелких изменений в UI, улучшения API, поддержки TTS через решения от Microsoft или модели MCU-Arctic и т.п. Поэтому если хотите быть на “острие” нововведений не игнорируйте оповещения о выходе новых версий OpenWebUI и обновляйтесь. Хотя мы рекомендуем делать это с задержкой на несколько дней, так как обычно крупное обновление потом получает кучу мелких исправлений в течении 2-3 дней после.

Другие статьи

26.01.2026

Что раздражает коллег, но никто об этом не говорит: 8 вредных привычек в IT

Вы можете быть сильным специалистом и все равно создавать сложности для коллег. Разбор восьми самых частых сценариев из жизни IT-команд.

16.01.2026

От железа к облаку и обратно - кейсы миграции

Миграции идут в обе стороны, и «правы» обычно все, но по разным причинам. В статье: кейсы с цифрами, гибридные сценарии и типовые ошибки, которые превращают экономию в убытки.

13.01.2026

Как запустить 4 независимые нейросети на одном GPU (16 ГБ) под FastAPI

Если кажется, что 16 ГБ VRAM мало для продакшн-ML, вот практический контрпример: четыре независимые модели под FastAPI на одном GPU.

29.12.2025

Как настроить свой сервер Mumble для стабильных звонков без блокировок

Когда Zoom и Google Meet не работают, есть простой вариант для защищенной связи: поднимаем свой сервер Mumble за 10 минут и получаем стабильную голосовую связь без блокировок.

17.12.2025

NVIDIA RTX PRO 2000 Blackwell. На что способен «младшенький GPU» нового семейства профессиональных карт NVIDIA

Тестируем RTX PRO 2000 - 70 Вт, 16 ГБ GDDR7 и Blackwell в Ollama, ComfyUI и Blender. Мы проверили, на что реально способна карта и стоит ли она своих денег.

Upload