Перейти к содержанию

Proxmox 9

В этой статье

Особенности сборки

ID Совместимые ОС VPS BM VGPU GPU Мин. ЦПУ (Ядер) Мин. ОЗУ (Гб) Мин. HDD/SDD (Гб) Доступно
32 Debian 12 + + + + 2 2 - Нет

Proxmox VE 9.0

Proxmox VE 9.0 выпущен 5 августа 2025 г. и имеет существенные отличия от версии 8.x:

Основные нововведения версии 9.0:

  • Переход на Debian Trixie;
  • Снимки виртуальных машин на хранилищах LVM с толстым выделением ресурсов (preview-технология);
  • Правила высокой доступности (HA) для привязки узлов и ресурсов;
  • Фабрики для стека программно-определяемых сетей (SDN);
  • Модернизированный мобильный веб-интерфейс;
  • ZFS поддерживает добавление новых устройств в существующие пулы RAIDZ с минимальным временем простоя.

Критические изменения в версии 9.0:

  • Тестовый репозиторий переименован в pve-test;
  • Возможны изменения в названиях сетевых интерфейсов;
  • VirtIO vNIC: изменено значение по умолчанию для поля MTU;
  • Обновление до AppArmor 4;
  • Лишение привилегии VM.Monitor;
  • Новая привилегия VM.Replicate для репликации хранилища;
  • Создание привилегированных контейнеров требует привилегий Sys.Modify;
  • Прекращена поддержка настройки maxfiles для резервного копирования;
  • Поддержка GlusterFS прекращена;
  • systemd регистрирует предупреждение System is tainted: unmerged-bin после загрузки.

Если вы заказали сервер с версией 9.0, обязательно ознакомьтесь с подробной документацией разработчиков

Примечание

Если не указано иное, по умолчанию мы устанавливаем последнюю релиз версию программного обеспечения с сайта разработчика или репозиториев операционной системы.

Proxmox 9. Установка

После установки сервера, в течение 15-20 минут выполняется установка сервиса Proxmox VE. На почту, привязанную к учетной записи, приходит оповещение об установленном сервере и ссылка в виде https://proxmox<ID_сервера>.hostkey.in, по которой необходимо пройти для доступа в web-интерфейс управления Proxmox VE:

  • Login - root;
  • Password - пароль системы.

Внимание

Если вы устанавливаете Proxmox как операционную систему, для доступа к web-интерфейсу необходимо перейти по адресу http://IP_адрес_сервера:8006.

Первый вход и базовая проверка

  1. Откройте браузер → https://<IP_адрес_сервера>:8006 и введите учетные данные:

  2. Перейдите: DatacenterNodeSummary - проверьте CPU, RAM, диски, аптайм:

  3. Отключите enterprise-репозиторий, если нет подписки: NodeRepositoriespve-enterpriseDisable. Оставьте pve-no-subscription:

Команды для терминала:

sed -i 's/^deb/#deb/g' /etc/apt/sources.list.d/pve-enterprise.list || true
apt update

Сеть: мост vmbr0

Мост vmbr0 - это виртуальный «коммутатор», к которому подключаются ВМ. Он привязывается к физическому интерфейсу (например, ens18/eno1).

Через веб-интерфейс

  1. NodeSystemNetwork:

  2. Проверьте, что есть vmbr0. Если его нет или он не настроен - CreateLinux Bridge:

    • Name: vmbr0
    • IPv4/CIDR: укажите ваш статический IP в формате X.X.X.X/YY (если DHCP - оставляем пустым);
    • Gateway (IPv4): шлюз по умолчанию (обычно X.X.X.1) (также не указываем, если DHCP);
    • Bridge ports: ваш физический интерфейс, например ens1;
    • Сохраните → Apply configuration:

Через CLI (если потеряли доступ к вебу)

Пример /etc/network/interfaces (ifupdown2):

auto lo
iface lo inet loopback

auto ens18
iface ens18 inet manual

auto vmbr0
iface vmbr0 inet static
    address 192.0.2.10/24
    gateway 192.0.2.1
    bridge-ports ens18
    bridge-stp off
    bridge-fd 0

Применить изменения:

ifreload -a

Примечание

Если нужна DHCP-адресация для узла: замените блок iface vmbr0 inet static на iface vmbr0 inet dhcp и удалите строку gateway.

Частые ошибки:

  • Неправильно указан bridge-ports (не тот физический интерфейс) → сеть «пропала». Исправьте интерфейс и выполните ifreload -a.
  • Указан не тот шлюз или подсеть → есть локальная связь, но нет интернета.

Диски и хранилища

Добавить второй диск под хранилище ВМ

  1. NodeDisks: убедитесь, что новый диск виден (например, sdb):

  2. Вариант A - LVM-Thin (удобно для снапшотов):

    • DisksLVM-ThinCreate: выберите диск → задайте имя VG (например, pve2) и thin-pool (например, data2):

    • Хранилище появится в DatacenterStorage.

  3. Вариант B - Directory:

    • Создайте файловую систему (DisksZFS или вручную mkfs.ext4), смонтируйте в /mnt/...:

    • DatacenterStorageAddDirectory → путь /mnt/... → включите Disk image, ISO image (по необходимости).

Примечание

Для ZFS выберите профиль с учётом ОЗУ (рекомендуется ≥ 8 ГБ). На слабых VDS лучше LVM-Thin или Directory.

Загрузка ISO-образов

ISO-образы можно загрузить двумя способами.

A. Через веб-интерфейс

  1. DatacenterStorage → (выберите storage с типом ISO, например local) → Content.
  2. Upload → выберите локальный ubuntu-25.10-live-server-amd64.iso → дождитесь завершения загрузки:

B. Через узел (CLI)

Пример скачивания ISO Ubuntu 25.10 в хранилище local:

cd /var/lib/vz/template/iso
wget https://releases.ubuntu.com/25.10/ubuntu-25.10-live-server-amd64.iso

Если ISO не появляется в списке - проверьте, что оно лежит в папке .../template/iso нужного хранилища и что у storage включён тип ISO Image.

Создаём первую ВМ (Ubuntu 25.10)

Пример: Ubuntu Server 25.10 (VPS с 2 vCPU)

Нажмите Create VM (вверху справа):

General: ID оставьте по умолчанию, Name- ubuntu2510 (или своё):

OS: выберите ISO ubuntu-25.10-live-server-amd64.iso, Type: Linux:

System:

  • Graphics card: Default;
  • BIOS: OVMF (UEFI);
  • Machine: q35;
  • SCSI Controller: VirtIO SCSI single;
  • (Опционально) включите Qemu Agent в Options после создания ВМ (см. ниже):

Disks:

  • Bus/Device: SCSI;
  • SCSI Controller: VirtIO SCSI single;
  • Storage: ваш LVM-Thin/Directory;
  • Size: 20–40 ГБ (минимум 10–15 ГБ для теста);
  • Discard (TRIM): включить на thin-пуле:

CPU:

  • Sockets: 1;
  • Cores: 2 (под ваш VPS);
  • Type: host (лучшая производительность):

Memory:

  • 2048–4096 МБ. Можно включить Ballooning (например, Min 1024, Max 4096):

Network:

  • Model: VirtIO (paravirtualized);
  • Bridge: vmbr0;
  • Если нужна VLAN: VLAN Tag:

Confirm: проверьте настройки, отметьте Start after created и нажмите Finish:

Установка ОС:

  1. Запустите ВМ → Console (noVNC) → Try or Install Ubuntu:

  2. Инсталлятор:

    • DHCP/статический IP по ситуации;
    • Диск: Use entire disk;
    • Профиль: пользователь/пароль;
    • OpenSSH server: включить.
  3. Перезагрузите и зайдите по консоли/SSH.

Post-install:

sudo apt update && sudo apt -y full-upgrade
sudo apt -y install qemu-guest-agent
sudo systemctl enable --now qemu-guest-agent

Далее в Proxmox: VMOptionsQemu Agent = Enabled:

Boot Order: если загрузка с ISO - OptionsBoot Order → переместите scsi0 выше cdrom.

Установка Windows (для более производительных узлов)

Подходит для узлов с ≥4 vCPU/8 ГБ RAM. На слабых VPS Windows может работать нестабильно.

  1. ISO: загрузите Windows Server (2019/2022/2025) ISO и virtio-win.iso (драйверы) в StorageContent:

  2. Create VMOS: Microsoft Windows, ISO - установочный образ. Опция Add additional drive for VirtIO drivers позволяет добавить второй CD с драйверами:

  3. System: BIOS OVMF (UEFI);

    • Machine: q35;
    • При необходимости включите Add EFI Disk и Add TPM (для новых версий Windows). Если не стартует - попробуйте SeaBIOS и уберите EFI/TPM:

  4. Disks:

    • Bus: SCSI;
    • Controller: VirtIO SCSI;
    • Size: 40–80 ГБ;
    • IO Threads: включить:

  5. CPU: 2–4 vCPU;

    • Type: host:

  6. Memory: 4–8 ГБ:

  7. Network: Model VirtIO (paravirtualized), Bridge vmbr0:

  8. Confirm: завершите создание VM кнопкой Create, затем в HardwareCD/DVD Drive подключите второй ISO - virtio-win.iso:

  9. Установщик Windows: на шаге выбора диска нажмите Загрузить драйвер → укажите CD с VirtIO (vioscsi/viostor). После установки - в Диспетчере устройств поставьте сетевые драйверы (NetKVM):

  10. Гостевой агент (по желанию): установите Qemu Guest Agent для Windows с virtio-win ISO:

Траблшутинг Windows:

  • Чёрный экран/не грузится: смените OVMF → SeaBIOS, отключите EFI/TPM.
  • Нет сети: проверьте, что NIC = VirtIO и драйвер NetKVM встал.
  • Тормоза диска: убедитесь, что диск = SCSI + virtio драйвер.

LXC-контейнеры: быстрый старт

Готовые шаблоны с минимальным софтом доступны в хранилище шаблонов.

  1. DatacenterStorage → (выберите storage с типом Templates)→ **Content** → **Templates**. Скачайте, например:ubuntu-25.04-standart_*.tar.zst` или другой нужный шаблон:

  2. Нажмите Create CT:

    • General: укажите ID/Name, Unprivileged container = Enabled (по умолчанию безопаснее). Задайте пароль root или SSH-ключ:

    • Template: выберите скачанный шаблон:

    • Disks: Storage/Size (например, 8–20 ГБ):

    • CPU/RAM: под задачу (например, 1 vCPU, 1–2 ГБ RAM):

    • Network: Bridge vmbr0, IPv4 = DHCP (или Static, если нужно). VLAN Tag при необходимости:

    Совет по Network: Если используете NAT на vmbr1, то поставьте его и пропишите статику.

    • DNS: по умолчанию с хоста или свой:

    • Features: при необходимости включите nesting, fuse, keyctl (зависит от приложений в контейнере).
  3. Start at boot/Start after created: по желанию.

  4. После запуска: войдите по SSH и установите софт из шаблона или пакетами:

    apt update && apt -y upgrade
    

В LXC не нужен Qemu Guest Agent. Монтаж хост-каталогов делается через MP (Mount points).

Типовые профили ВМ

  • Ubuntu/Debian (Web/DB/Utility): SCSI + VirtIO, UEFI (OVMF), 1–2 vCPU, 2–4 ГБ RAM, диск 20–60 ГБ; включить Qemu Guest Agent.

  • Лёгкие сервисы (DNS/DHCP/Proxy): 1 vCPU, 1–2 ГБ RAM, диск 8–20 ГБ.

  • Контейнерные хосты (Docker/Podman): 2–4 vCPU, 4–8 ГБ RAM; отдельный диск/пул под данные.

Альтернатива ISO: можно использовать Cloud-Init образы Ubuntu 25.10 для быстрого клонирования с автоконфигом сети/SSH. Подходит, если вы планируете много однотипных ВМ.

Соединяем ВМ и LXC в одной сети

Базовый вариант (одна подсеть):

  1. Убедитесь, что у всех ВМ/контейнеров Bridge = vmbr0 (или vmbr1).

  2. Если сеть с DHCP - адреса выдаются автоматически, если статика - задайте IP в одной подсети (например, 10.10.0.2/24, 10.10.0.3/24) и общий шлюз 10.10.0.1.

  3. Опционально. VLAN: укажите VLAN Tag в настройке сетевой карты ВМ/CT и убедитесь, что аплинк свитча пропускает этот VLAN.

  4. Внутри ОС проверьте, что локальный firewall не блокирует ICMP/SSH/HTTP.

  5. Тест: с Ubuntu VM ping <IP-LXC> и наоборот; ip route, traceroute помогут при сбоях.

Когда разные подсети:

  • Proxmox сам не маршрутизирует между мостами. Нужен маршрутизатор (отдельная ВМ с Linux/pfSense) или NAT на хосте.

  • Простой NAT на хосте (пример):

Включить форвардинг:

sysctl -w net.ipv4.ip_forward=1
NAT с vmbr1 в интернет через vmbr0:

iptables -t nat -A POSTROUTING -o vmbr0 -j MASQUERADE

Для постоянства добавьте правила в /etc/network/if-up.d/ или используйте nftables:

Примечание

Использование NAT подходит для объединения LXC и установленных через ISO ОС в одну подсеть.

Бэкапы и шаблоны

  • Backup: DatacenterBackup или NodeBackup - настройте расписание vzdump (хранилище, время, режим snapshot/stop):

  • Шаблон ВМ: после базовой настройки ВМ → Convert to Template. Создание новых ВМ через Clone экономит время и исключает ошибки:

Частые проблемы и решения

«Веб-интерфейс пропал» (GUI не открывается)

Проверьте, что узел доступен по SSH. На узле выполните:

systemctl status pveproxy pvedaemon pve-cluster
journalctl -u pveproxy --no-pager -n 100
Мягкая перезагрузка сервисов:

systemctl restart pveproxy pvedaemon

Если обновлялись пакеты - завершите apt и добейте зависшие процессы (аккуратно), проверьте свободное место df -h.

Потеряли сеть после правки bridge

Подключитесь по консоли (через провайдера/VNC/IPMI). Проверьте /etc/network/interfaces и примените:

ifreload -a
ip a
ip r

Проверьте, что шлюз и маска заданы верно, bridge-ports - нужный физический интерфейс.

ВМ не выходит в интернет

  • Убедитесь, что внутри ВМ указаны корректные IP/маска/шлюз/DNS.
  • Проверьте, что Bridge у сетевого адаптера ВМ - vmbr0 (или nat/vmbr1).
  • Если используется VLAN - укажите тег VLAN в настройках NIC ВМ (HardwareNetwork DeviceVLAN Tag), а на аплинке свитча разрешите этот VLAN.

ISO не грузится / не виден установщик

  • Проверьте Boot Order (OptionsBoot Order) и что подключён верный ISO.
  • Для UEFI проверьте, не включён ли Secure Boot в гостевой ОС, если ISO его не поддерживает.

Высокая нагрузка/дисковая «свалка»

  • Используйте VirtIO SCSI и включайте IO Threads для интенсивных дисков.
  • Не храните бэкапы на том же thin-пуле, что и боевые диски - лучше отдельное хранилище.

«Отвалилась» веб-камера/USB-устройство в ВМ

  • Для проброса USB используйте HardwareUSB Device (USB passthrough). Если устройство перестало отвечать - Stop/Start ВМ или переподключите USB на хосте. Иногда помогает отключить Use USB3 для совместимости.

Обновления и перезагрузка

apt update && apt full-upgrade -y
reboot

Обновляйте в «окно» и делайте бэкап перед крупными апгрейдами.

Диагностика: шпаргалка

Сеть узла:

ip a; ip r; ping -c3 1.1.1.1; ping -c3 google.com
Сервисы Proxmox:

systemctl status pveproxy pvedaemon pvestatd pve-cluster
journalctl -u pveproxy -n 200 --no-pager
Места на диске:

df -h | sort -k5 -h
lvs; vgs; pvs
Хранилища:

cat /etc/pve/storage.cfg
Устройство ВМ:

qm list; qm config <VMID>; qm status <VMID>
Быстрый рестарт ВМ:

qm stop <VMID> --skiplock; sleep 2; qm start <VMID>

Мини-FAQ

Q: Можно ли переименовать мост vmbr0? A: Да, но не рекомендуется на рабочем узле - проще оставить vmbr0 и добавлять дополнительные мосты (vmbr1) при необходимости.

Q: Где лежат ISO по умолчанию? A: В хранилище local: /var/lib/vz/template/iso.

Q: Чем отличается local от local-lvm? A: local - обычная директория для ISO, контейнерных шаблонов и т.п. local-lvm - LVM-Thin для дисков ВМ/контейнеров со снапшотами.

Q: Как быстро клонировать ВМ? A: Превратите эталонную ВМ в Template, затем CloneFull/Linked.

Q: Как безопасно масштабировать CPU/RAM ВМ? A: Выключите ВМ и измените ресурсы; для Linux часть параметров можно менять «на лету», но лучше планово.

Чек-лист для проверки готовности системы

  • Есть доступ к https://<IP_сервера>:8006;
  • Настроен vmbr0 и интернет с узла;
  • Загружены ISO в хранилище;
  • Создана и установлена первая ВМ;
  • Включён Qemu Guest Agent;
  • Настроен Backup (расписание vzdump);
  • Проверены обновления.

Заказ Proxmox 9 с помощью API

Для установки данного ПО с использованием API следуйте этой инструкции.

question_mark
Я могу вам чем-то помочь?
question_mark
ИИ Помощник ×