Proxmox 9¶
В этой статье
- Особенности сборки
- Proxmox 9. Установка
- Первый вход и базовая проверка
- Сеть: мост vmbr0
- Диски и хранилища
- Загрузка ISO-образов
- Создаём первую ВМ (Ubuntu 25.10)
- Установка Windows
- LXC-контейнеры: быстрый старт
- Типовые профили ВМ
- Соединяем ВМ и LXC в одной сети
- Бэкапы и шаблоны
- Частые проблемы и решения
- Диагностика: шпаргалка
- Мини-FAQ
- Чек-лист для проверки готовности системы
- Заказ Proxmox 9 с помощью API
Особенности сборки¶
ID | Совместимые ОС | VPS | BM | VGPU | GPU | Мин. ЦПУ (Ядер) | Мин. ОЗУ (Гб) | Мин. HDD/SDD (Гб) | Доступно |
---|---|---|---|---|---|---|---|---|---|
32 | Debian 12 | + | + | + | + | 2 | 2 | - | Нет |
Proxmox VE 9.0
Proxmox VE 9.0 выпущен 5 августа 2025 г. и имеет существенные отличия от версии 8.x:
Основные нововведения версии 9.0:
- Переход на Debian Trixie;
- Снимки виртуальных машин на хранилищах LVM с толстым выделением ресурсов (preview-технология);
- Правила высокой доступности (HA) для привязки узлов и ресурсов;
- Фабрики для стека программно-определяемых сетей (SDN);
- Модернизированный мобильный веб-интерфейс;
- ZFS поддерживает добавление новых устройств в существующие пулы RAIDZ с минимальным временем простоя.
Критические изменения в версии 9.0:
- Тестовый репозиторий переименован в
pve-test
; - Возможны изменения в названиях сетевых интерфейсов;
- VirtIO vNIC: изменено значение по умолчанию для поля MTU;
- Обновление до AppArmor 4;
- Лишение привилегии
VM.Monitor
; - Новая привилегия
VM.Replicate
для репликации хранилища; - Создание привилегированных контейнеров требует привилегий
Sys.Modify
; - Прекращена поддержка настройки
maxfiles
для резервного копирования; - Поддержка GlusterFS прекращена;
- systemd регистрирует предупреждение
System is tainted: unmerged-bin
после загрузки.
Если вы заказали сервер с версией 9.0, обязательно ознакомьтесь с подробной документацией разработчиков
Примечание
Если не указано иное, по умолчанию мы устанавливаем последнюю релиз версию программного обеспечения с сайта разработчика или репозиториев операционной системы.
Proxmox 9. Установка¶
После установки сервера, в течение 15-20 минут выполняется установка сервиса Proxmox VE. На почту, привязанную к учетной записи, приходит оповещение об установленном сервере и ссылка в виде https://proxmox<ID_сервера>.hostkey.in
, по которой необходимо пройти для доступа в web-интерфейс управления Proxmox VE:
- Login -
root
; - Password - пароль системы.
Внимание
Если вы устанавливаете Proxmox как операционную систему, для доступа к web-интерфейсу необходимо перейти по адресу http://IP_адрес_сервера:8006
.
Первый вход и базовая проверка¶
-
Откройте браузер →
https://<IP_адрес_сервера>:8006
и введите учетные данные: -
Перейдите: Datacenter → Node → Summary - проверьте CPU, RAM, диски, аптайм:
-
Отключите enterprise-репозиторий, если нет подписки: Node → Repositories →
pve-enterprise
→Disable. Оставьтеpve-no-subscription
:
Команды для терминала:
Сеть: мост vmbr0¶
Мост vmbr0
- это виртуальный «коммутатор», к которому подключаются ВМ. Он привязывается к физическому интерфейсу (например, ens18/eno1).
Через веб-интерфейс¶
-
Node → System → Network:
-
Проверьте, что есть vmbr0. Если его нет или он не настроен -
Create→Linux Bridge:- Name:
vmbr0
- IPv4/CIDR: укажите ваш статический IP в формате X.X.X.X/YY (если DHCP - оставляем пустым);
- Gateway (IPv4): шлюз по умолчанию (обычно X.X.X.1) (также не указываем, если DHCP);
- Bridge ports: ваш физический интерфейс, например
ens1
; - Сохраните →
Apply configuration:
- Name:
Через CLI (если потеряли доступ к вебу)¶
Пример /etc/network/interfaces
(ifupdown2):
auto lo
iface lo inet loopback
auto ens18
iface ens18 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.0.2.10/24
gateway 192.0.2.1
bridge-ports ens18
bridge-stp off
bridge-fd 0
Применить изменения:
Примечание
Если нужна DHCP-адресация для узла: замените блок iface vmbr0 inet static
на iface vmbr0 inet dhcp
и удалите строку gateway.
Частые ошибки:
- Неправильно указан bridge-ports (не тот физический интерфейс) → сеть «пропала». Исправьте интерфейс и выполните
ifreload -a
. - Указан не тот шлюз или подсеть → есть локальная связь, но нет интернета.
Диски и хранилища¶
Добавить второй диск под хранилище ВМ¶
-
Node → Disks: убедитесь, что новый диск виден (например,
sdb
): -
Вариант A - LVM-Thin (удобно для снапшотов):
- Disks → LVM-Thin →
Create: выберите диск → задайте имя VG (например, pve2) и thin-pool (например, data2):
- Хранилище появится в Datacenter → Storage.
- Disks → LVM-Thin →
-
Вариант B - Directory:
- Создайте файловую систему (Disks → ZFS или вручную
mkfs.ext4
), смонтируйте в/mnt/...
:
- Datacenter → Storage →
Add→Directory→ путь/mnt/...
→ включите Disk image, ISO image (по необходимости).
- Создайте файловую систему (Disks → ZFS или вручную
Примечание
Для ZFS выберите профиль с учётом ОЗУ (рекомендуется ≥ 8 ГБ). На слабых VDS лучше LVM-Thin или Directory.
Загрузка ISO-образов¶
ISO-образы можно загрузить двумя способами.
A. Через веб-интерфейс¶
- Datacenter → Storage → (выберите
storage
с типомISO
, напримерlocal
) → Content. Upload→ выберите локальныйubuntu-25.10-live-server-amd64.iso
→ дождитесь завершения загрузки:
B. Через узел (CLI)¶
Пример скачивания ISO Ubuntu 25.10 в хранилище local
:
Если ISO не появляется в списке - проверьте, что оно лежит в папке .../template/iso
нужного хранилища и что у storage
включён тип ISO Image
.
Создаём первую ВМ (Ubuntu 25.10)¶
Пример: Ubuntu Server 25.10 (VPS с 2 vCPU)
Нажмите Create VM (вверху справа):
General: ID оставьте по умолчанию, Name- ubuntu2510
(или своё):
OS: выберите ISO ubuntu-25.10-live-server-amd64.iso
, Type: Linux
:
System:
- Graphics card:
Default
; - BIOS:
OVMF
(UEFI); - Machine:
q35
; - SCSI Controller:
VirtIO SCSI single
; - (Опционально) включите Qemu Agent в Options после создания ВМ (см. ниже):
Disks:
- Bus/Device:
SCSI
; - SCSI Controller:
VirtIO SCSI single
; - Storage: ваш
LVM-Thin/Directory
; - Size: 20–40 ГБ (минимум 10–15 ГБ для теста);
- Discard (TRIM): включить на
thin-пуле
:
CPU:
- Sockets: 1;
- Cores: 2 (под ваш VPS);
- Type:
host
(лучшая производительность):
Memory:
- 2048–4096 МБ. Можно включить Ballooning (например,
Min 1024
,Max 4096
):
Network:
- Model:
VirtIO
(paravirtualized); - Bridge:
vmbr0
; - Если нужна VLAN:
VLAN Tag
:
Confirm: проверьте настройки, отметьте Start after created и нажмите Finish:
Установка ОС:¶
-
Запустите ВМ → Console (
noVNC
) →Try or Install Ubuntu: -
Инсталлятор:
- DHCP/статический IP по ситуации;
- Диск:
Use entire disk
; - Профиль: пользователь/пароль;
- OpenSSH server: включить.
-
Перезагрузите и зайдите по консоли/SSH.
Post-install:¶
Далее в Proxmox: VM → Options → Qemu Agent = Enabled
:
Boot Order: если загрузка с ISO - Options → Boot Order → переместите scsi0
выше cdrom
.
Установка Windows (для более производительных узлов)¶
Подходит для узлов с ≥4 vCPU/8 ГБ RAM. На слабых VPS Windows может работать нестабильно.
-
ISO: загрузите Windows Server (2019/2022/2025) ISO и
virtio-win.iso
(драйверы) в Storage → Content: -
Create VM→ OS:Microsoft Windows
, ISO - установочный образ. ОпцияAdd additional drive for VirtIO drivers
позволяет добавить второй CD с драйверами: -
System:
BIOS OVMF
(UEFI);- Machine:
q35
; - При необходимости включите
Add EFI Disk
иAdd TPM
(для новых версий Windows). Если не стартует - попробуйтеSeaBIOS
и уберитеEFI/TPM
:
- Machine:
-
Disks:
- Bus:
SCSI
; - Controller:
VirtIO SCSI
; - Size: 40–80 ГБ;
- IO Threads: включить:
- Bus:
-
CPU: 2–4 vCPU;
- Type:
host
:
- Type:
-
Memory: 4–8 ГБ:
-
Network:
Model VirtIO
(paravirtualized),Bridge vmbr0
: -
Confirm: завершите создание VM кнопкой
Create, затем в Hardware → CD/DVD Drive подключите второй ISO -virtio-win.iso
: -
Установщик Windows: на шаге выбора диска нажмите
Загрузить драйвер→ укажите CD с VirtIO (vioscsi/viostor
). После установки - в Диспетчере устройств поставьте сетевые драйверы (NetKVM
): -
Гостевой агент (по желанию): установите
Qemu Guest Agent
для Windows сvirtio-win ISO
:
Траблшутинг Windows:¶
- Чёрный экран/не грузится: смените OVMF → SeaBIOS, отключите EFI/TPM.
- Нет сети: проверьте, что NIC = VirtIO и драйвер NetKVM встал.
- Тормоза диска: убедитесь, что диск = SCSI + virtio драйвер.
LXC-контейнеры: быстрый старт¶
Готовые шаблоны с минимальным софтом доступны в хранилище шаблонов.
-
Datacenter → Storage → (выберите
storage
с типомTemplates
)→ **Content** → **Templates**. Скачайте, например:
ubuntu-25.04-standart_*.tar.zst` или другой нужный шаблон: -
Нажмите
Create CT:- General: укажите ID/Name, Unprivileged container =
Enabled
(по умолчанию безопаснее). Задайте парольroot
или SSH-ключ:
- Template: выберите скачанный шаблон:
- Disks: Storage/Size (например, 8–20 ГБ):
- CPU/RAM: под задачу (например, 1 vCPU, 1–2 ГБ RAM):
- Network:
Bridge vmbr0
, IPv4 =DHCP
(или Static, если нужно). VLAN Tag при необходимости:
Совет по Network: Если используете NAT на
vmbr1
, то поставьте его и пропишите статику.- DNS: по умолчанию с хоста или свой:
- Features: при необходимости включите
nesting
,fuse
,keyctl
(зависит от приложений в контейнере).
- General: укажите ID/Name, Unprivileged container =
-
Start at boot
/Start after created
: по желанию. -
После запуска: войдите по SSH и установите софт из шаблона или пакетами:
В LXC не нужен Qemu Guest Agent. Монтаж хост-каталогов делается через MP (Mount points).
Типовые профили ВМ¶
-
Ubuntu/Debian (Web/DB/Utility): SCSI + VirtIO, UEFI (OVMF), 1–2 vCPU, 2–4 ГБ RAM, диск 20–60 ГБ; включить Qemu Guest Agent.
-
Лёгкие сервисы (DNS/DHCP/Proxy): 1 vCPU, 1–2 ГБ RAM, диск 8–20 ГБ.
-
Контейнерные хосты (Docker/Podman): 2–4 vCPU, 4–8 ГБ RAM; отдельный диск/пул под данные.
Альтернатива ISO: можно использовать Cloud-Init образы Ubuntu 25.10 для быстрого клонирования с автоконфигом сети/SSH. Подходит, если вы планируете много однотипных ВМ.
Соединяем ВМ и LXC в одной сети¶
Базовый вариант (одна подсеть):¶
-
Убедитесь, что у всех ВМ/контейнеров Bridge =
vmbr0
(илиvmbr1
). -
Если сеть с DHCP - адреса выдаются автоматически, если статика - задайте IP в одной подсети (например,
10.10.0.2/24
,10.10.0.3/24
) и общий шлюз10.10.0.1
. -
Опционально. VLAN: укажите VLAN Tag в настройке сетевой карты ВМ/CT и убедитесь, что аплинк свитча пропускает этот VLAN.
-
Внутри ОС проверьте, что локальный firewall не блокирует ICMP/SSH/HTTP.
-
Тест: с Ubuntu VM
ping <IP-LXC>
и наоборот;ip route
,traceroute
помогут при сбоях.
Когда разные подсети:¶
-
Proxmox сам не маршрутизирует между мостами. Нужен маршрутизатор (отдельная ВМ с Linux/pfSense) или NAT на хосте.
-
Простой NAT на хосте (пример):
Включить форвардинг:
NAT с vmbr1 в интернет черезvmbr0
: Для постоянства добавьте правила в /etc/network/if-up.d/
или используйте nftables:
Примечание
Использование NAT подходит для объединения LXC и установленных через ISO ОС в одну подсеть.
Бэкапы и шаблоны¶
-
Backup: Datacenter → Backup или Node → Backup - настройте расписание
vzdump
(хранилище, время, режим snapshot/stop): -
Шаблон ВМ: после базовой настройки ВМ →
Convert to Template. Создание новых ВМ черезCloneэкономит время и исключает ошибки:
Частые проблемы и решения¶
«Веб-интерфейс пропал» (GUI не открывается)¶
Проверьте, что узел доступен по SSH. На узле выполните:
Мягкая перезагрузка сервисов:Если обновлялись пакеты - завершите apt и добейте зависшие процессы (аккуратно), проверьте свободное место df -h
.
Потеряли сеть после правки bridge¶
Подключитесь по консоли (через провайдера/VNC/IPMI). Проверьте /etc/network/interfaces
и примените:
Проверьте, что шлюз и маска заданы верно, bridge-ports
- нужный физический интерфейс.
ВМ не выходит в интернет¶
- Убедитесь, что внутри ВМ указаны корректные IP/маска/шлюз/DNS.
- Проверьте, что Bridge у сетевого адаптера ВМ - vmbr0 (или nat/vmbr1).
- Если используется VLAN - укажите тег VLAN в настройках NIC ВМ (Hardware → Network Device → VLAN Tag), а на аплинке свитча разрешите этот VLAN.
ISO не грузится / не виден установщик¶
- Проверьте Boot Order (Options → Boot Order) и что подключён верный ISO.
- Для UEFI проверьте, не включён ли Secure Boot в гостевой ОС, если ISO его не поддерживает.
Высокая нагрузка/дисковая «свалка»¶
- Используйте VirtIO SCSI и включайте IO Threads для интенсивных дисков.
- Не храните бэкапы на том же thin-пуле, что и боевые диски - лучше отдельное хранилище.
«Отвалилась» веб-камера/USB-устройство в ВМ¶
- Для проброса USB используйте Hardware → USB Device (USB passthrough). Если устройство перестало отвечать -
Stop/Start
ВМ или переподключите USB на хосте. Иногда помогает отключитьUse USB3
для совместимости.
Обновления и перезагрузка¶
Обновляйте в «окно» и делайте бэкап перед крупными апгрейдами.
Диагностика: шпаргалка¶
Сеть узла:
Сервисы Proxmox: Места на диске: Хранилища: Устройство ВМ: Быстрый рестарт ВМ:Мини-FAQ¶
Q: Можно ли переименовать мост vmbr0? A: Да, но не рекомендуется на рабочем узле - проще оставить vmbr0 и добавлять дополнительные мосты (vmbr1
) при необходимости.
Q: Где лежат ISO по умолчанию? A: В хранилище local: /var/lib/vz/template/iso
.
Q: Чем отличается local от local-lvm? A: local - обычная директория для ISO, контейнерных шаблонов и т.п. local-lvm - LVM-Thin для дисков ВМ/контейнеров со снапшотами.
Q: Как быстро клонировать ВМ? A: Превратите эталонную ВМ в Template, затем Clone → Full/Linked
.
Q: Как безопасно масштабировать CPU/RAM ВМ? A: Выключите ВМ и измените ресурсы; для Linux часть параметров можно менять «на лету», но лучше планово.
Чек-лист для проверки готовности системы¶
- Есть доступ к
https://<IP_сервера>:8006
; - Настроен
vmbr0
и интернет с узла; - Загружены ISO в хранилище;
- Создана и установлена первая ВМ;
- Включён Qemu Guest Agent;
- Настроен Backup (расписание vzdump);
- Проверены обновления.
Заказ Proxmox 9 с помощью API¶
Для установки данного ПО с использованием API следуйте этой инструкции.