Перейти к содержанию

Вопросы по программному обеспечению

В этой статье

У меня не обновляется/устанавливаются ядро и драйвера в Ubuntu

Проблема, при которой не устанавливается новое ядро или драйвера (модули ядра) может возникать из-за переполнения раздела /boot при одновременном обновлении ядра системы и невозможности сборки новых инициализационных RAM-дисков (initrd). Чтобы это проверить, запустите команду

sudo apt --fix-broken install
Если в выводе вы увидите ошибки, то проверьте заполняемость /boot раздела. Для этого посмотрите вывод команды df -h /boot

/dev/sda2       739M  287M  398M  42% /boot   

Для успешной пересборки initrd у вас цифра перед процентами заполнения раздела /boot должна быть более 200M. Если свободного места нет, то выполните следующие шаги:

  1. Сделайте бэкап раздела, чтобы можно было оперативно вернуть файлы, если вы случайно удалите нужные:

    sudo rsync -av /boot/ /boot.old/
    
  2. Посмотрите на содержимое раздела /boot и найдите все файлы инициализационных RAM-дисков:

    ls /boot | grep 'initrd.img-'
    

    Вы должны получить похожий на этот вывод:

    initrd.img
    initrd.img-6.8.0-57-generic
    initrd.img-6.8.0-58-generic
    initrd.img-6.8.0-59-generic
    initrd.img-6.8.0-60-generic
    initrd.img-initrd.img
    initrd.img-initrd.img.old
    initrd.img.old  
    
  3. Удалите лишние инициализационные RAM-диски, ОБЯЗАТЕЛЬНО оставив два последних. В нашем случае нужно удалить initrd.img-6.8.0-57-generic и initrd.img-6.8.0-58-generic.

    Внимание

    Все последующие команды могут привести к поломке вашей операционной системы, поэтому внимательно следите за версиями удаляемых файлов. В /boot разделе должны обязательно оставаться файлы для последней и предпоследней версий ядер! Убедиться, какое ядро у вас загружено в текущий момент можно командой uname -a. Если что-то пошло не так, вы можете восстановить содержимое /boot раздела из бэкапа, сделанного на первом шаге, командой sudo rsync -av /boot.old/ /boot/.

    Сделайте это командой:

    rm -f /boot/initrd.img-6.8.0-57-generic
    
    повторив ее для каждого файла.

    Проделайте тоже самое с файлами vmlinuz и System.map (необязательный пункт):

    rm -f /boot/vmlinuz-6.8.0-57-generic 
    rm -f /boot/System.map-6.8.0-57-generic
    
  4. Очистите систему от пакетов, связанных со старыми ядрами и запустите доустановку и сборку драйверов и модулей ядра командами:

    sudo apt autoremove
    sudo apt --fix-broken install
    
  5. Перезагрузите ОС:

    reboot
    

У меня выдает ошибку Docker Compose

Если при запуске docker compose у вас выдает ошибку вида docker: 'compose' is not a docker command или docker-compose: command not found, это может означать, что у вас старая версия ОС где, Docker Compose не установлен как плагин или не добавлен в PATH. Для решения данной проблемы следуйте этим шагам:

  1. Установите Docker Compose (если не установлен):

    mkdir -p ~/.docker/cli-plugins/
    curl -SL https://github.com/docker/compose/releases/latest/download/docker-compose-linux-x86_64 -o ~/.docker/cli-plugins/docker-compose
    chmod +x ~/.docker/cli-plugins/docker-compose
    
    Замените latest на актуальную версию с официального репозитория при необходимости.

  2. Проверьте установку:

    docker-compose --version
    
    Если команда выполнена успешно, Docker Compose установлен.

  3. Если команда всё ещё не найдена, убедитесь, что ~/.docker/cli-plugins/ добавлен в переменную окружения PATH. Добавьте в ~/.bashrc или ~/.zshrc:

    export PATH=$PATH:~/.docker/cli-plugins/
    

    Затем выполните:

    source ~/.bashrc  # или source ~/.zshrc
    
  4. Снова проверьте установку:

    docker-compose --version
    

Нейросетевые модели типа DeepSeek R1 отвечают не на русском языке, а на китайском или английском.

Большинство мультиязычных моделей (например, DeepSeek) могут случайно переключаться на язык основного обучения (китайский или английский), даже если запрос был выполнен на русском языке. Это происходит из-за «дистилляции» моделей, сжатия или присутствия в данных моделей ответа только на одном основном языке.

Чтобы минимизировать такое поведение, рекомендуем явно указывать язык ответа, добавляя в промт запроса в конце «Отвечай только на русском» и занести эту строку в системный промт. Также рекомендуем использовать модели Qwen3 или Gemma3, которые показывают большую стабильность в версиях небольшим числом параметров, чем DeepSeek.

Также дополнительно вы можете самостоятельно сделать проверку на ответ на русском языке с помощью инструментария OpenWebUI или на стороне вашего чата, если вы работаете через API.

Нейросетевая модель в OpenWebUI или Ollama отвечает очень долго

Если модель долго отвечает, то проблема может быть в ее виде и размере и мощности вашего сервера.

В первую очередь обратите внимание, помещается ли ваша модель полностью в видеопамять видеокарты. Например модель llama4:16x17b имеет размер 67 Гб в сжатом (q4) виде и в полной распакованной версии требует 80–90 ГБ видеопамяти. Поэтому если у вас видеокарта NVIDIA A5000 или RTX 4090 с 24 ГБ видеопамяти, то Ollama будет выгружать часть слоев модели в центральный процессор сервера, что вызовет перегруз виртуальной машины с урезанием выделения ядер и длительные задержки в ответах.

Для работы с такой моделью требуются более мощные видеокарты, например, Nvidia H100 с 80 ГБ видеопамяти или связка из четырех RTX 4090. Оперативная память сервера важна только для задач RAG (работы с базой знаний и загружаемыми файлами) и в большинстве случаем достаточно 32 Гб ОЗУ.

Вы можете прикинуть размер модели в видеопамяти, умножив ее размер на 2 (если модель сжата до q4) или на 1.5, если модель сжата как q8. Для каждой 1000 токенов окна контекста свыше 8000 прибавляйте по 1 Гб требуемой видеопамяти.

Для проверки загрузки вашей видеокарты, зайдите на сервер через SSH и запустите в командной строке ollama ps:

[ root ]$ ollama ps 
NAME                                  ID              SIZE      PROCESSOR    UNTIL
yxchia/multilingual-e5-base:latest    f5248cae7e12    1.1 GB    100% GPU     14 minutes from now
qwen3:14b                             bdbd181c33f2    14 GB     100% GPU     14 minutes from now

Вывод покажет, сколько места занимает ваша модель и помещается ли она полностью в GPU.

Примечание

Для видеокарт с 24 Гб видеопамяти не рекомендуется модели размерностью более 14B и сжатием более q8. Чем больше размерность модели по числу параметров (ее объем) и размер контекстного окна, тем дольше будет процесс ответа.

Информация

Расчетная производительность моделей размером 14B на Nvidia A5000:

  • Холодный запуск (первичная загрузка модели в память) занимает 30-40 секунд до первого ответа;
  • Ответ — 10–15 секунд (без размышления);
  • Ответ - 20-30 секунд (с размышлением);

Если используется RAG (Retrieval-Augmented Generation) или MCP, время ответа увеличивается на 5–10 секунд (время поиска по базе данных и запроса к инструментарию).

Скорость генерации токенов составляет ~40–45 токенов в секунду. Вы можете проверить это значение, нажав на значок (i) внизу строки ответа в чате OpenWebUI и посмотрев параметр response_token/s.

Можно ли поставить VPN на сервер?

Вы можете установить VPN приложения на сервер для персональных нужд на свой страх и риск. HOSTKEY не несет ответственность за возможные нарушения вами законодательства РФ касательно VPN и не предоставляет услуг по его установке и настройке. Вам также запрещено использовать наши сервера для публичной раздачи VPN на платной основе или предоставления сервисов по обходу ограничений.

question_mark
Я могу вам чем-то помочь?
question_mark
ИИ Помощник ×