Array
(
    [__flash] => Array
        (
        )

    [guest] => Array
        (
            [hash_id] => aa3pt7bbg9rosptdikmo9moc79
        )

)
Серверы
  • Готовые серверы
  • Конфигуратор
  • Серверы с 1CPU
  • Серверы с 2CPU
  • 4 поколение AMD EPYC и Intel Xeоn
  • Серверы с AMD Ryzen и Intel Core i9
  • Серверы для хранения данных
  • Cерверы с портом 10 Гбит/c
  • GPU
  • Распродажа
  • VPS
    GPU
  • Выделенные серверы с GPU
  • Виртуальные серверы с GPU
  • GPU-серверы с Nvidia RTX 5090
  • GPU-серверы с AMD Radeon
  • Распродажа
    Маркетплейс
    Colocation
  • Размещение серверов в дата-центре в Москве
  • Обслуживание серверов в других ЦОД
  • Прокат
    Услуги
  • Аренда сетевого оборудования
  • Защита L3-L4 от DDoS атак
  • IPV4 и IPV6 адреса
  • Администрирование серверов
  • Уровни технической поддержки
  • Мониторинг сервера
  • BYOIP
  • USB диск
  • IP-KVM
  • Трафик
  • Коммутация серверов
  • AI-чат-бот Lite
  • AI-платформа
  • О нас
  • Работа в HOSTKEY
  • Панель управления серверами и API
  • Дата-центры
  • Сеть
  • Тест скорости
  • Специальные предложения
  • Отдел продаж
  • Для реселлеров
  • Гранты для специалистов по Data Science
  • Гранты для научных проектов и стартапов
  • Документация и Частые вопросы
  • Новости
  • Блог
  • Оплата
  • Документы
  • Сообщите о нарушении
  • Looking Glass
  • 14.02.2025

    Что нового в OpenWebUI версий 0.5.x

    server one
    HOSTKEY

    Еще в прошлом году, 25 декабря, OpenWebUI обновился до версии 0.5.0 и один из лучших интерфейса работы с моделями в Ollama начал новый этап своей жизни. Давайте рассмотрим, что нового появилось за 1.5 месяца разработки и что теперь он предлагает в версии 0.5.12.

    1. Асинхронные чаты с нотификациями. Теперь вы можете начать чат, перейти в другие чаты чтобы посмотреть какую то информацию и вернуться назад и ничего не потерять, как было раньше. Работа с моделью ведется в асинхронном режиме и когда она закончит выдачу информации вы получите нотификацию об этом.

    2. Swagger документация OpenWebUI доступна теперь оффлайн и не требует подключения к сети интернет. Не забудьте также про один момент: в docker образе OpenWebUI в строке запуска необходимо передавать переменную -e ENV='dev' иначе он запустится в prod режиме и без доступа к API документации.

    3. Поддержка Kokoro-JS TTS. Пока только для английского и британского английского, но работает прямо в вашем браузере с хорошим качеством озвучки. Ждем русские голоса в моделях.

    AI-платформа: предустановленные языковые LLM-модели на высокопроизводительных серверах с GPU-картами.

    Арендуйте высокопроизводительный сервер с GPU картой с предустановленными лучшими LLM-моделями:

    • DeepSeek-r1-14b
    • Gemma-2-27b-it
    • Llama-3.3-70B
    • Phi-4-14b

    🔶 Карты NVIDIA RTX4090 🔶 Почасовая оплата 🔶 Скидки до 30%

    Заказать

    1. Появился режим Code Interpreter, которые позволяет запускать код через Pyoide и Jupyter и улучшать результаты вывода. Включается в Settings - Admin Settings - Conde Interpreter, доступ к Jupiter идет через внешний сервер с ним.

    2. Поддержка “думающих” моделей и вывода размышления в отдельных вкладках. Теперь можно поставить модель типа DeepSeek-R1 и посмотреть, как модель интерпретирует промт, “размышляя” над ним.

    3. Генерацию изображений можно делать (при подключенном сервисе ComfyUI, Automatic1111 или другом сервисе) прямо из промта ввода, достаточно включить переключатель Image в меню + слева промта.

    4. Документы теперь можно подгружать не только в виде файлов, но и через Google Drive. К сожалению удобный способ щелкнуть на пункт меню и выбрать аккаунт для авторизации доступа не получится, нужно заводить OAuth клиента, проект в Google, получать ключи доступа к API и передавать переменные в инстанс OpenWebUI при записи. То же самое с доступом к S3 хранилищам. Ждем удобного решения, понятного большинству пользователей.

    5. Веб-поиск можно включить на постоянной основе, чтобы получать релевантные результаты, как это сделано в том же ChatGPT. Делается это в Settings - Interface в пункте Allows users to enable Web Search by default.

    6. Переработанный пункт меню работы с моделями. Теперь можно включать и выключать модели и гибко их настраивать. Кто потерял пункт удаления моделей, то он теперь зачем-то засунут под маленький значок скачивания Manage Models в правом верхнем углу раздела. Нажав на него получите привычное окно добавления и удаления моделей в Ollama.

    7. Гибкая настройка прав для моделей и пользователей. Теперь нужно пользователей заводить в группы, а уже группам давать доступ к моделям и настраивать доступ к функция OpenWebUI, разрешив или запретив им те или иные действия как в Workspace, так и с чатами.

    8. Новые меню дополнительных функций для чата, вызываемое по нажатию на три точки в правом верхнем углу. Позволяет поделиться чатом и совместно работать над ним. Также можно посмотреть схему чатов (Overview), вывести окно вывода HTML и SVG генерации в реальном времени (раздел Artifacts), чтобы сразу видеть изменения, скачать весь чат в json, txt или PDF, скопировать его в буфер обмена или добавить теги для последующего поиска.

    9. Авторизация через LDAP. Если вы используете OpenWebUI в организации, то просто подключите его к вашему серверу авторизации, задав нужные атрибуты для почты и имени пользователя. В группы пользователей увы придется распределять вручную.

    10. Каналы (Channels). Это чаты внутри OpenWebUI между пользователями. После создания, их видят все пользователи или пользователи определенных групп и в них они могут общаться между собой. Для доступа к этой функции необходимо включить их в Settings - Admin Settings - General.

    И еще много других улучшений, включая поддержку OAuth, запуска tools и functions самими моделями, мелких изменений в UI, улучшения API, поддержки TTS через решения от Microsoft или модели MCU-Arctic и т.п. Поэтому если хотите быть на “острие” нововведений не игнорируйте оповещения о выходе новых версий OpenWebUI и обновляйтесь. Хотя мы рекомендуем делать это с задержкой на несколько дней, так как обычно крупное обновление потом получает кучу мелких исправлений в течении 2-3 дней после.

    Другие статьи

    22.02.2025

    Как добавить в OpenWebUI генерацию изображений через ComfyUI

    Добавьте поддержку генерации изображений в OpenWebUI с помощью ComfyUI! Подробное руководство по установке, настройке API, загрузке моделей и автоматическому запуску сервиса.

    31.01.2025

    Памяти много не бывает. Исследуем сервер от GIGABYTE - R283-ZK0-AAL1

    Мы протестировали сервер GIGABYTE R283-ZK0-AAL1 с 48 слотами RAM и выяснили, насколько эффективно он справляется с нагрузками. Экономия на памяти, температурные показатели и тесты производительности – все подробности в нашем обзоре!

    23.01.2025

    Четыре Radeon RX 7900, нейросеть и настольная игра

    Сможет ли языковая модель играть в сложную настольную игру, а не только решать задачи и писать тексты? Мы проверили это на связке из четырёх Radeon RX 7900 XTX с 24 ГБ памяти. Результаты удивляют!

    24.12.2024

    Как мы мониторинг SMART-данных дисков в оVirt экосистеме прикручивали

    Представьте, что на одной из множества ваших виртуальных машин, работающих на oVirt, начнет давать сбой диск в одном из узлов? Мы в Hostkey используем связку smartctl_exporter совместно с Prometheus и Grafana чтобы отследить этот момент и успеть принять меры и хотим поделиться с вами нашим опытом.

    20.12.2024

    В чем разница между IPv6 и IPv4?

    Чем отличаются IPv4 и IPv6? Зачем появился IPv6 и как он решает проблемы IPv4 и что это значит для пользователей.

    HOSTKEY Выделенные серверы в Европе, России и США Готовые решения и индивидуальные конфигурации серверов на базе процессоров AMD, Intel, карт GPU, Бесплатной защитой от DDoS-атак и безлимитный соединением на скорости 1 Гбит/с 30
    4.3 48 48
    Upload