Вопросы по программному обеспечению¶
В этой статье
У меня не обновляется/устанавливаются ядро и драйвера в Ubuntu¶
Проблема, при которой не устанавливается новое ядро или драйвера (модули ядра) может возникать из-за переполнения раздела /boot
при одновременном обновлении ядра системы и невозможности сборки новых инициализационных RAM-дисков (initrd). Чтобы это проверить, запустите команду
/boot
раздела. Для этого посмотрите вывод команды df -h /boot
Для успешной пересборки initrd у вас цифра перед процентами заполнения раздела /boot
должна быть более 200M
. Если свободного места нет, то выполните следующие шаги:
-
Сделайте бэкап раздела, чтобы можно было оперативно вернуть файлы, если вы случайно удалите нужные:
-
Посмотрите на содержимое раздела
/boot
и найдите все файлы инициализационных RAM-дисков:Вы должны получить похожий на этот вывод:
-
Удалите лишние инициализационные RAM-диски, ОБЯЗАТЕЛЬНО оставив два последних. В нашем случае нужно удалить
initrd.img-6.8.0-57-generic
иinitrd.img-6.8.0-58-generic
.Внимание
Все последующие команды могут привести к поломке вашей операционной системы, поэтому внимательно следите за версиями удаляемых файлов. В
/boot
разделе должны обязательно оставаться файлы для последней и предпоследней версий ядер! Убедиться, какое ядро у вас загружено в текущий момент можно командойuname -a
. Если что-то пошло не так, вы можете восстановить содержимое /boot раздела из бэкапа, сделанного на первом шаге, командойsudo rsync -av /boot.old/ /boot/
.Сделайте это командой:
повторив ее для каждого файла.Проделайте тоже самое с файлами
vmlinuz
иSystem.map
(необязательный пункт): -
Очистите систему от пакетов, связанных со старыми ядрами и запустите доустановку и сборку драйверов и модулей ядра командами:
-
Перезагрузите ОС:
У меня выдает ошибку Docker Compose¶
Если при запуске docker compose у вас выдает ошибку вида docker: 'compose' is not a docker command
или docker-compose: command not found
, это может означать, что у вас старая версия ОС где, Docker Compose не установлен как плагин или не добавлен в PATH
. Для решения данной проблемы следуйте этим шагам:
-
Установите Docker Compose (если не установлен):
Заменитеmkdir -p ~/.docker/cli-plugins/ curl -SL https://github.com/docker/compose/releases/latest/download/docker-compose-linux-x86_64 -o ~/.docker/cli-plugins/docker-compose chmod +x ~/.docker/cli-plugins/docker-compose
latest
на актуальную версию с официального репозитория при необходимости. -
Проверьте установку:
Если команда выполнена успешно, Docker Compose установлен. -
Если команда всё ещё не найдена, убедитесь, что
~/.docker/cli-plugins/
добавлен в переменную окруженияPATH
. Добавьте в~/.bashrc
или~/.zshrc
:Затем выполните:
-
Снова проверьте установку:
Нейросетевые модели типа DeepSeek R1 отвечают не на русском языке, а на китайском или английском.¶
Большинство мультиязычных моделей (например, DeepSeek) могут случайно переключаться на язык основного обучения (китайский или английский), даже если запрос был выполнен на русском языке. Это происходит из-за «дистилляции» моделей, сжатия или присутствия в данных моделей ответа только на одном основном языке.
Чтобы минимизировать такое поведение, рекомендуем явно указывать язык ответа, добавляя в промт запроса в конце «Отвечай только на русском» и занести эту строку в системный промт. Также рекомендуем использовать модели Qwen3 или Gemma3, которые показывают большую стабильность в версиях небольшим числом параметров, чем DeepSeek.
Также дополнительно вы можете самостоятельно сделать проверку на ответ на русском языке с помощью инструментария OpenWebUI или на стороне вашего чата, если вы работаете через API.
Нейросетевая модель в OpenWebUI или Ollama отвечает очень долго¶
Если модель долго отвечает, то проблема может быть в ее виде и размере и мощности вашего сервера.
В первую очередь обратите внимание, помещается ли ваша модель полностью в видеопамять видеокарты. Например модель llama4:16x17b имеет размер 67 Гб в сжатом (q4) виде и в полной распакованной версии требует 80–90 ГБ видеопамяти. Поэтому если у вас видеокарта NVIDIA A5000 или RTX 4090 с 24 ГБ видеопамяти, то Ollama будет выгружать часть слоев модели в центральный процессор сервера, что вызовет перегруз виртуальной машины с урезанием выделения ядер и длительные задержки в ответах.
Для работы с такой моделью требуются более мощные видеокарты, например, Nvidia H100 с 80 ГБ видеопамяти или связка из четырех RTX 4090. Оперативная память сервера важна только для задач RAG (работы с базой знаний и загружаемыми файлами) и в большинстве случаем достаточно 32 Гб ОЗУ.
Вы можете прикинуть размер модели в видеопамяти, умножив ее размер на 2 (если модель сжата до q4) или на 1.5, если модель сжата как q8. Для каждой 1000 токенов окна контекста свыше 8000 прибавляйте по 1 Гб требуемой видеопамяти.
Для проверки загрузки вашей видеокарты, зайдите на сервер через SSH и запустите в командной строке ollama ps
:
[ root ]$ ollama ps
NAME ID SIZE PROCESSOR UNTIL
yxchia/multilingual-e5-base:latest f5248cae7e12 1.1 GB 100% GPU 14 minutes from now
qwen3:14b bdbd181c33f2 14 GB 100% GPU 14 minutes from now
Вывод покажет, сколько места занимает ваша модель и помещается ли она полностью в GPU.
Примечание
Для видеокарт с 24 Гб видеопамяти не рекомендуется модели размерностью более 14B и сжатием более q8. Чем больше размерность модели по числу параметров (ее объем) и размер контекстного окна, тем дольше будет процесс ответа.
Информация
Расчетная производительность моделей размером 14B на Nvidia A5000:
- Холодный запуск (первичная загрузка модели в память) занимает 30-40 секунд до первого ответа;
- Ответ — 10–15 секунд (без размышления);
- Ответ - 20-30 секунд (с размышлением);
Если используется RAG (Retrieval-Augmented Generation) или MCP, время ответа увеличивается на 5–10 секунд (время поиска по базе данных и запроса к инструментарию).
Скорость генерации токенов составляет ~40–45 токенов в секунду. Вы можете проверить это значение, нажав на значок (i) внизу строки ответа в чате OpenWebUI и посмотрев параметр response_token/s
.
Можно ли поставить VPN на сервер?¶
Вы можете установить VPN приложения на сервер для персональных нужд на свой страх и риск. HOSTKEY не несет ответственность за возможные нарушения вами законодательства РФ касательно VPN и не предоставляет услуг по его установке и настройке. Вам также запрещено использовать наши сервера для публичной раздачи VPN на платной основе или предоставления сервисов по обходу ограничений.