Вопросы по программному обеспечению¶
В этой статье
- У меня не обновляется/устанавливаются ядро и драйвера в Ubuntu
- У меня выдает ошибку Docker Compose
- Нейросетевые модели типа DeepSeek R1 отвечают не на русском языке, а на китайском или английском.
- Нейросетевая модель в OpenWebUI или Ollama отвечает очень долго
- Можно ли поставить VPN на сервер?
- Как полностью удалить Docker из установленной Ubuntu?
У меня не обновляется/устанавливаются ядро и драйвера в Ubuntu¶
Проблема, при которой не устанавливается новое ядро или драйвера (модули ядра) может возникать из-за переполнения раздела /boot при одновременном обновлении ядра системы и невозможности сборки новых инициализационных RAM-дисков (initrd). Чтобы это проверить, запустите команду
/boot раздела. Для этого посмотрите вывод команды df -h /boot Для успешной пересборки initrd у вас цифра перед процентами заполнения раздела /boot должна быть более 200M. Если свободного места нет, то выполните следующие шаги:
-
Сделайте бэкап раздела, чтобы можно было оперативно вернуть файлы, если вы случайно удалите нужные:
-
Посмотрите на содержимое раздела
/bootи найдите все файлы инициализационных RAM-дисков:Вы должны получить похожий на этот вывод:
-
Удалите лишние инициализационные RAM-диски, ОБЯЗАТЕЛЬНО оставив два последних. В нашем случае нужно удалить
initrd.img-6.8.0-57-genericиinitrd.img-6.8.0-58-generic.Внимание
Все последующие команды могут привести к поломке вашей операционной системы, поэтому внимательно следите за версиями удаляемых файлов. В
/bootразделе должны обязательно оставаться файлы для последней и предпоследней версий ядер! Убедиться, какое ядро у вас загружено в текущий момент можно командойuname -a. Если что-то пошло не так, вы можете восстановить содержимое /boot раздела из бэкапа, сделанного на первом шаге, командойsudo rsync -av /boot.old/ /boot/.Сделайте это командой:
повторив ее для каждого файла.Проделайте тоже самое с файлами
vmlinuzиSystem.map(необязательный пункт): -
Очистите систему от пакетов, связанных со старыми ядрами и запустите доустановку и сборку драйверов и модулей ядра командами:
-
Перезагрузите ОС:
У меня выдает ошибку Docker Compose¶
Если при запуске docker compose у вас выдает ошибку вида docker: 'compose' is not a docker command или docker-compose: command not found, это может означать, что у вас старая версия ОС где, Docker Compose не установлен как плагин или не добавлен в PATH. Для решения данной проблемы следуйте этим шагам:
-
Установите Docker Compose (если не установлен):
Заменитеmkdir -p ~/.docker/cli-plugins/ curl -SL https://github.com/docker/compose/releases/latest/download/docker-compose-linux-x86_64 -o ~/.docker/cli-plugins/docker-compose chmod +x ~/.docker/cli-plugins/docker-composelatestна актуальную версию с официального репозитория при необходимости. -
Проверьте установку:
Если команда выполнена успешно, Docker Compose установлен. -
Если команда всё ещё не найдена, убедитесь, что
~/.docker/cli-plugins/добавлен в переменную окруженияPATH. Добавьте в~/.bashrcили~/.zshrc:Затем выполните:
-
Снова проверьте установку:
Нейросетевые модели типа DeepSeek R1 отвечают не на русском языке, а на китайском или английском.¶
Большинство мультиязычных моделей (например, DeepSeek) могут случайно переключаться на язык основного обучения (китайский или английский), даже если запрос был выполнен на русском языке. Это происходит из-за «дистилляции» моделей, сжатия или присутствия в данных моделей ответа только на одном основном языке.
Чтобы минимизировать такое поведение, рекомендуем явно указывать язык ответа, добавляя в промт запроса в конце «Отвечай только на русском» и занести эту строку в системный промт. Также рекомендуем использовать модели Qwen3 или Gemma3, которые показывают большую стабильность в версиях небольшим числом параметров, чем DeepSeek.
Также дополнительно вы можете самостоятельно сделать проверку на ответ на русском языке с помощью инструментария OpenWebUI или на стороне вашего чата, если вы работаете через API.
Нейросетевая модель в OpenWebUI или Ollama отвечает очень долго¶
Если модель долго отвечает, то проблема может быть в ее виде и размере и мощности вашего сервера.
В первую очередь обратите внимание, помещается ли ваша модель полностью в видеопамять видеокарты. Например модель llama4:16x17b имеет размер 67 Гб в сжатом (q4) виде и в полной распакованной версии требует 80–90 ГБ видеопамяти. Поэтому если у вас видеокарта NVIDIA A5000 или RTX 4090 с 24 ГБ видеопамяти, то Ollama будет выгружать часть слоев модели в центральный процессор сервера, что вызовет перегруз виртуальной машины с урезанием выделения ядер и длительные задержки в ответах.
Для работы с такой моделью требуются более мощные видеокарты, например, Nvidia H100 с 80 ГБ видеопамяти или связка из четырех RTX 4090. Оперативная память сервера важна только для задач RAG (работы с базой знаний и загружаемыми файлами) и в большинстве случаем достаточно 32 Гб ОЗУ.
Вы можете прикинуть размер модели в видеопамяти, умножив ее размер на 2 (если модель сжата до q4) или на 1.5, если модель сжата как q8. Для каждой 1000 токенов окна контекста свыше 8000 прибавляйте по 1 Гб требуемой видеопамяти.
Для проверки загрузки вашей видеокарты, зайдите на сервер через SSH и запустите в командной строке ollama ps:
[ root ]$ ollama ps
NAME ID SIZE PROCESSOR UNTIL
yxchia/multilingual-e5-base:latest f5248cae7e12 1.1 GB 100% GPU 14 minutes from now
qwen3:14b bdbd181c33f2 14 GB 100% GPU 14 minutes from now
Вывод покажет, сколько места занимает ваша модель и помещается ли она полностью в GPU.
Примечание
Для видеокарт с 24 Гб видеопамяти не рекомендуется модели размерностью более 14B и сжатием более q8. Чем больше размерность модели по числу параметров (ее объем) и размер контекстного окна, тем дольше будет процесс ответа.
Информация
Расчетная производительность моделей размером 14B на Nvidia A5000:
- Холодный запуск (первичная загрузка модели в память) занимает 30-40 секунд до первого ответа;
- Ответ — 10–15 секунд (без размышления);
- Ответ - 20-30 секунд (с размышлением);
Если используется RAG (Retrieval-Augmented Generation) или MCP, время ответа увеличивается на 5–10 секунд (время поиска по базе данных и запроса к инструментарию).
Скорость генерации токенов составляет ~40–45 токенов в секунду. Вы можете проверить это значение, нажав на значок (i) внизу строки ответа в чате OpenWebUI и посмотрев параметр response_token/s.
Можно ли поставить VPN на сервер?¶
Для соблюдения требований требований законодательства РФ HOSTKEY не представляет услуги по установке и не дает консультаций по VPN сервисам и сервисам маскировки пользователей, таким как Outline, 3X-UI, Amnesia, Wireguard, Hiddify, OpenVPN, Thor и похожим. Вам также запрещено использовать наши сервера для публичной раздачи VPN на платной основе или предоставления сервисов по обходу ограничений.
Как полностью удалить Docker из установленной Ubuntu?¶
Наши образы операционных систем Ubuntu идут с предустановленным docker для удобства. Если он вам по каким то причинам не нужен или вы хотите поставить другую версию, то воспользуйтесь следующими командами:
sudo apt remove docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin
sudo apt autoremove
sudo rm -rf /var/lib/docker
sudo rm -rf /var/lib/containerd
Убедитесь, что docker удалился командой docker --version.