Proxmox Virtual Environment (Proxmox VE) est une puissante plateforme de virtualisation de serveurs open-source qui combine l’hyperviseur KVM et la technologie de conteneurs LXC sous une interface de gestion unique. Que vous construisiez un home lab pour apprendre l’administration système, l’auto-hébergement d’applications ou l’exploitation d’un petit environnement de production, Proxmox VE fournit des fonctionnalités de niveau entreprise sans coûts de licence. Ce guide vous accompagne tout au long du processus de configuration complet, de l’installation bare-metal au lancement de vos premières machines virtuelles et conteneurs, avec les configurations de stockage, réseau et sauvegarde en cours de route.

Prérequis

Avant de commencer, assurez-vous d’avoir :

  • Une machine dédiée (serveur, PC de bureau ou mini PC) avec un processeur 64 bits supportant Intel VT-x ou AMD-V
  • Au moins 8 Go de RAM (16 Go ou plus recommandé pour exécuter plusieurs VMs)
  • Un SSD ou disque NVMe dédié (64 Go minimum) pour le système Proxmox
  • Un stockage supplémentaire (HDD ou SSD) pour les disques des VMs et conteneurs
  • Une clé USB (2 Go ou plus) pour l’installateur
  • Une connexion Ethernet filaire à votre réseau local
  • Un ordinateur séparé avec un navigateur web pour la gestion

Qu’est-ce que Proxmox VE ?

Proxmox VE est une distribution Linux basée sur Debian conçue spécifiquement pour la virtualisation. Elle intègre deux technologies de virtualisation en une seule plateforme :

  • KVM (Kernel-based Virtual Machine) — virtualisation matérielle complète permettant d’exécuter des systèmes d’exploitation complets y compris Windows, Linux et BSD avec du matériel virtuel dédié
  • LXC (Linux Containers) — virtualisation au niveau du système d’exploitation qui exécute des instances Linux isolées partageant le noyau de l’hôte, offrant des performances quasi natives avec une surcharge minimale

La plateforme est gérée via une interface web accessible sur le port 8006 et prend en charge le clustering, la migration en direct, le stockage défini par logiciel et le réseau défini par logiciel. Proxmox VE est sous licence GNU AGPL v3, ce qui signifie qu’il est entièrement gratuit, avec des abonnements payants optionnels pour le support entreprise et l’accès au dépôt.

Proxmox VE vs VMware vs Hyper-V

Comprendre comment Proxmox se compare aux autres hyperviseurs populaires vous aide à prendre une décision éclairée pour votre home lab :

CaractéristiqueProxmox VEVMware ESXiMicrosoft Hyper-V
CoûtGratuit (open-source)Niveau gratuit limité, vSphere sous licenceGratuit avec Windows Server
Type d’hyperviseurType 1 (KVM)Type 1Type 1
Support des conteneursLXC intégréNécessite Docker/K8s séparéNécessite une configuration séparée
Interface webIntégrée (port 8006)Nécessite vSphere ClientWindows Admin Center
StockageZFS, Ceph, NFS, LVMVMFS, vSAN, NFSReFS, CSV, SMB
ClusteringGratuit (jusqu’à 32 nœuds)Nécessite licence vCenterNécessite Windows Server
Migration en directGratuitNécessite licence vMotionGratuit avec clustering
Sauvegardevzdump + PBS intégrésNécessite des outils tiersNécessite Windows Server Backup
SE de baseDebian LinuxPropriétaireWindows Server
CommunautéGrande, forums actifsGrande, orientée entrepriseÉcosystème Microsoft

Proxmox VE se distingue pour les home labs car il est entièrement fonctionnel à coût zéro, prend en charge nativement les VMs et les conteneurs, et inclut la sauvegarde et le clustering intégrés sans licence supplémentaire.

Installation de Proxmox VE

Télécharger l’ISO

Téléchargez le dernier installateur ISO de Proxmox VE depuis la page officielle de téléchargement à l’adresse https://www.proxmox.com/en/downloads. Au moment de la rédaction, la version actuelle est Proxmox VE 8.x.

Créer une Clé USB Bootable

Sous Linux, utilisez dd pour écrire l’ISO sur une clé USB :

# Identifiez votre clé USB (soyez très prudent dans le choix du bon périphérique)
lsblk

# Écrivez l'ISO sur la clé USB (remplacez /dev/sdX par votre périphérique USB)
sudo dd bs=1M conv=fdatasync if=proxmox-ve_8.*.iso of=/dev/sdX status=progress

Sous Windows, utilisez Etcher ou Rufus en mode DD pour écrire l’ISO.

Lancer l’Installateur

Démarrez la machine cible depuis la clé USB et suivez ces étapes :

  1. Sélectionnez Install Proxmox VE (Graphical) dans le menu de démarrage
  2. Acceptez le CLUF
  3. Sélectionnez le disque cible pour l’installation — Proxmox utilisera le disque entier. Pour ZFS, vous pouvez sélectionner plusieurs disques dans une configuration RAID
  4. Définissez votre pays, fuseau horaire et disposition du clavier
  5. Saisissez un mot de passe root robuste et une adresse e-mail valide pour les notifications
  6. Configurez l’interface réseau de gestion : définissez un nom d’hôte (ex. pve.home.lab), une adresse IP, une passerelle et un serveur DNS
  7. Vérifiez le résumé et cliquez sur Install

L’installation prend environ 5 à 10 minutes. Une fois terminée, retirez la clé USB et redémarrez.

Configuration Post-Installation

Accéder à l’Interface Web

Une fois le serveur démarré, ouvrez un navigateur sur un autre ordinateur et accédez à :

https://IP_DE_VOTRE_SERVEUR:8006

Connectez-vous avec le nom d’utilisateur root et le mot de passe défini lors de l’installation. Le domaine doit être Linux PAM standard authentication.

Supprimer l’Avis d’Abonnement

Si vous utilisez Proxmox VE sans abonnement payant, vous verrez un dialogue d’avis d’abonnement à chaque connexion. Vous pouvez le fermer en toute sécurité ou le supprimer en modifiant le fichier JavaScript :

# Sauvegardez d'abord le fichier original
cp /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js.bak

# Supprimez l'avis d'abonnement
sed -Ei.bak "s/res === null \|\| res === undefined \|\| \!res \|\| res.data.status.toLowerCase\(\) !== 'active'/false/g" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js

# Redémarrez le service web
systemctl restart pveproxy.service

Passer au Dépôt No-Subscription

Le dépôt enterprise nécessite une clé d’abonnement payante. Passez au dépôt gratuit no-subscription :

# Désactivez le dépôt enterprise
sed -i 's/^deb/#deb/' /etc/apt/sources.list.d/pve-enterprise.list

# Ajoutez le dépôt no-subscription
echo "deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list

# Mettez à jour et mettez à niveau le système
apt update && apt full-upgrade -y

Désactiver le Dépôt Enterprise de Ceph

Si vous voyez une erreur concernant le dépôt enterprise de Ceph :

# Désactivez le dépôt enterprise de Ceph
sed -i 's/^deb/#deb/' /etc/apt/sources.list.d/ceph.list

Création de Machines Virtuelles (KVM)

Télécharger une Image ISO

Avant de créer une VM, téléchargez une ISO d’installation vers Proxmox. Dans l’interface web :

  1. Naviguez vers votre nœud dans la barre latérale gauche
  2. Cliquez sur local (pve) sous le nœud
  3. Sélectionnez ISO Images dans le menu de contenu
  4. Cliquez sur Upload et sélectionnez votre fichier ISO, ou utilisez Download from URL pour le télécharger directement

Alternativement, utilisez la ligne de commande :

# Téléchargez l'ISO Ubuntu Server directement dans le stockage ISO
cd /var/lib/vz/template/iso/
wget https://releases.ubuntu.com/24.04/ubuntu-24.04.1-live-server-amd64.iso

Créer une Nouvelle VM

Depuis l’interface web, cliquez sur Create VM dans le coin supérieur droit. Configurez les onglets suivants :

General :

  • Node : votre nœud Proxmox
  • VM ID : attribué automatiquement ou choisissez votre propre schéma de numérotation (ex. 100+)
  • Name : nom descriptif (ex. ubuntu-server-01)

OS :

  • Sélectionnez l’image ISO téléchargée
  • Type : Linux, Version : 6.x - 2.6 Kernel

System :

  • Machine : q35 (recommandé pour les systèmes invités modernes)
  • BIOS : OVMF (UEFI) pour un SE moderne ou SeaBIOS pour legacy
  • Ajoutez un EFI Disk si vous utilisez UEFI
  • SCSI Controller : VirtIO SCSI single

Disks :

  • Bus : VirtIO Block ou SCSI
  • Taille du disque : selon les besoins (ex. 32 Go pour un serveur)
  • Activez Discard pour le thin provisioning sur les SSDs
  • Activez SSD emulation si le stockage sous-jacent est un SSD

CPU :

  • Cores : allouez selon la charge de travail (ex. 2-4)
  • Type : host pour les meilleures performances (ou x86-64-v2-AES pour la compatibilité de migration)

Memory :

  • Définissez la RAM souhaitée (ex. 2048 Mo pour un serveur léger)
  • Activez Ballooning pour l’allocation dynamique de mémoire

Network :

  • Bridge : vmbr0 (bridge par défaut)
  • Model : VirtIO (paravirtualisé)

Cliquez sur Finish pour créer la VM, puis démarrez-la et ouvrez la console pour terminer l’installation du SE.

Configuration Optimale de VM via CLI

Vous pouvez également créer et configurer des VMs avec la commande qm :

# Créer une VM avec l'ID 101
qm create 101 --name ubuntu-server-01 --memory 2048 --cores 2 --net0 virtio,bridge=vmbr0

# Importer une image disque
qm importdisk 101 ubuntu-cloud.img local-lvm

# Attacher le disque importé
qm set 101 --scsi0 local-lvm:vm-101-disk-0

# Définir l'ordre de démarrage
qm set 101 --boot order=scsi0

# Démarrer la VM
qm start 101

Création de Conteneurs LXC

Les conteneurs LXC sont l’alternative légère aux VMs complètes. Ils partagent le noyau de l’hôte, démarrent en quelques secondes et utilisent une fraction des ressources.

Télécharger des Modèles de Conteneurs

Dans l’interface web :

  1. Naviguez vers votre nœud > local (pve) > CT Templates
  2. Cliquez sur Templates et sélectionnez dans la liste disponible (Ubuntu, Debian, Alpine, etc.)

Ou depuis la ligne de commande :

# Lister les modèles disponibles
pveam available --section system

# Télécharger un modèle
pveam download local ubuntu-24.04-standard_24.04-2_amd64.tar.zst

Créer un Nouveau Conteneur

Cliquez sur Create CT dans l’interface web et configurez :

# Créer un conteneur avec l'ID 200
pct create 200 local:vztmpl/ubuntu-24.04-standard_24.04-2_amd64.tar.zst \
  --hostname docker-host \
  --memory 2048 \
  --swap 512 \
  --cores 2 \
  --net0 name=eth0,bridge=vmbr0,ip=dhcp \
  --storage local-lvm \
  --rootfs local-lvm:8 \
  --unprivileged 1 \
  --features nesting=1 \
  --password

# Démarrer le conteneur
pct start 200

# Entrer dans la console du conteneur
pct enter 200

Options clés expliquées :

  • --unprivileged 1 — exécute le conteneur sans accès root à l’hôte (recommandé pour la sécurité)
  • --features nesting=1 — active l’imbrication, nécessaire pour exécuter Docker dans un conteneur LXC
  • --rootfs local-lvm:8 — crée un système de fichiers racine de 8 Go sur le stockage local-lvm

Conteneurs Privilégiés vs Non Privilégiés

Les conteneurs non privilégiés mappent la plage UID/GID du conteneur vers une plage non privilégiée sur l’hôte, offrant une meilleure isolation de sécurité. Utilisez des conteneurs privilégiés uniquement lorsque c’est nécessaire, par exemple lorsque vous avez besoin d’un accès direct au matériel de l’hôte (ex. passthrough GPU ou montages NFS).

Configuration du Stockage

Proxmox VE prend en charge plusieurs backends de stockage. Le choix du bon dépend de votre matériel et de votre cas d’utilisation.

Stockage Local (Par Défaut)

L’installation par défaut crée deux entrées de stockage :

  • local — stockage basé sur un répertoire à /var/lib/vz pour les ISOs, modèles et sauvegardes
  • local-lvm — un thin pool LVM pour les disques de VMs et les volumes de conteneurs

Vérifiez votre configuration de stockage actuelle :

# Lister tout le stockage configuré
pvesm status

# Afficher les informations détaillées
pvesm list local
pvesm list local-lvm

Stockage ZFS

ZFS fournit un RAID intégré, des snapshots, la compression et la vérification de l’intégrité des données. Si vous avez sélectionné ZFS lors de l’installation, il est déjà configuré. Pour ajouter un nouveau pool ZFS :

# Créer un pool ZFS en miroir avec deux disques
zpool create -f tank mirror /dev/sdb /dev/sdc

# Activer la compression
zfs set compression=lz4 tank

# Ajouter le pool ZFS au stockage Proxmox
pvesm add zfspool zfs-tank --pool tank --content images,rootdir

# Vérifier le stockage
pvesm status

Stockage NFS

NFS est idéal pour le stockage partagé entre plusieurs nœuds Proxmox, particulièrement pour les ISOs, modèles et sauvegardes :

# Ajouter un stockage NFS depuis un NAS
pvesm add nfs nas-backup \
  --server 192.168.1.50 \
  --export /volume1/proxmox-backup \
  --content backup,iso,vztmpl \
  --options vers=4.1

# Vérifier la connectivité
pvesm status

Stockage Ceph

Pour les clusters multi-nœuds, Ceph fournit un stockage distribué et répliqué :

# Installer les paquets Ceph sur tous les nœuds (exécuter sur chaque nœud)
pveceph install

# Initialiser le cluster Ceph (exécuter sur le premier nœud)
pveceph init --network 10.10.10.0/24

# Créer des moniteurs sur chaque nœud
pveceph mon create

# Ajouter des OSDs (un par disque, sur chaque nœud)
pveceph osd create /dev/sdb
pveceph osd create /dev/sdc

# Créer un pool de stockage
pveceph pool create vm-pool --pg_num 128

# Ajouter le pool au stockage Proxmox
pvesm add rbd ceph-pool --pool vm-pool --content images,rootdir

Réseau

Configuration du Bridge Par Défaut

Lors de l’installation, Proxmox crée vmbr0, un bridge Linux lié à votre interface réseau physique. Consultez la configuration réseau :

# Afficher la configuration réseau actuelle
cat /etc/network/interfaces

La configuration par défaut ressemble à :

auto lo
iface lo inet loopback

iface enp0s31f6 inet manual

auto vmbr0
iface vmbr0 inet static
    address 192.168.1.100/24
    gateway 192.168.1.1
    bridge-ports enp0s31f6
    bridge-stp off
    bridge-fd 0

Configuration des VLANs

Les VLANs permettent de segmenter le trafic réseau. Activez la prise en charge des VLANs sur le bridge :

# Modifier la configuration réseau
nano /etc/network/interfaces

Ajoutez bridge-vlan-aware yes à la définition du bridge :

auto vmbr0
iface vmbr0 inet static
    address 192.168.1.100/24
    gateway 192.168.1.1
    bridge-ports enp0s31f6
    bridge-stp off
    bridge-fd 0
    bridge-vlan-aware yes
    bridge-vids 2-4094

Appliquez la configuration :

# Appliquer les modifications réseau (soyez prudent sur les systèmes distants)
ifreload -a

Vous pouvez maintenant attribuer des VLANs aux VMs et conteneurs dans leur configuration réseau en ajoutant un tag VLAN (ex. tag=10 pour le VLAN 10).

Agrégation de Liens Réseau

Pour la redondance et un débit accru, agrégez plusieurs interfaces réseau :

auto bond0
iface bond0 inet manual
    bond-slaves enp0s31f6 enp1s0
    bond-miimon 100
    bond-mode 802.3ad
    bond-xmit-hash-policy layer3+4

auto vmbr0
iface vmbr0 inet static
    address 192.168.1.100/24
    gateway 192.168.1.1
    bridge-ports bond0
    bridge-stp off
    bridge-fd 0

Sauvegarde et Restauration

Sauvegarde avec vzdump

Proxmox inclut vzdump pour sauvegarder les VMs et conteneurs. Il existe trois modes de sauvegarde :

  • Snapshot — prend un snapshot en direct sans arrêter l’invité (recommandé)
  • Suspend — suspend brièvement l’invité pour la cohérence
  • Stop — arrête l’invité avant la sauvegarde (plus cohérent mais provoque une interruption)

Créer une sauvegarde manuelle :

# Sauvegarder la VM 101 en mode snapshot
vzdump 101 --mode snapshot --compress zstd --storage local

# Sauvegarder le conteneur 200 en mode snapshot
vzdump 200 --mode snapshot --compress zstd --storage local

# Sauvegarder tous les invités du nœud
vzdump --all --mode snapshot --compress zstd --storage local

Planifier des Sauvegardes Automatiques

Depuis l’interface web, naviguez vers Datacenter > Backup > Add pour créer une tâche de sauvegarde planifiée. Ou configurez via CLI :

# Modifier la configuration de la tâche de sauvegarde
nano /etc/pve/jobs.cfg

Ajoutez une tâche de sauvegarde :

vzdump: daily-backup
    enabled 1
    schedule daily
    all 1
    mode snapshot
    compress zstd
    storage local
    mailnotification always
    mailto admin@example.com

Restaurer depuis une Sauvegarde

Restaurez une VM ou un conteneur depuis une sauvegarde :

# Lister les sauvegardes disponibles
ls /var/lib/vz/dump/

# Restaurer une sauvegarde de VM
qmrestore /var/lib/vz/dump/vzdump-qemu-101-2026_01_21-02_00_00.vma.zst 101

# Restaurer une sauvegarde de conteneur
pct restore 200 /var/lib/vz/dump/vzdump-lxc-200-2026_01_21-02_00_00.tar.zst

Proxmox Backup Server (PBS)

Pour une gestion avancée des sauvegardes, déployez un Proxmox Backup Server dédié. PBS fournit :

  • Sauvegardes incrémentales avec déduplication des données
  • Chiffrement côté client
  • Vérification et contrôle d’intégrité des sauvegardes
  • Historique détaillé et statistiques des sauvegardes

Ajoutez PBS comme backend de stockage dans Proxmox VE :

# Ajouter le stockage PBS
pvesm add pbs pbs-server \
  --server 192.168.1.51 \
  --datastore backups \
  --username backup@pbs \
  --password \
  --fingerprint <PBS_FINGERPRINT>

Modèles et Cloud-Init

Création de Modèles

Les modèles permettent de déployer rapidement des VMs identiques. Convertissez une VM existante en modèle :

# Arrêtez d'abord la VM
qm stop 101

# Convertir en modèle
qm template 101

Intégration Cloud-Init

Cloud-Init permet la configuration automatique des VMs au premier démarrage (nom d’hôte, clés SSH, réseau, utilisateurs). Créez un modèle compatible Cloud-Init :

# Télécharger une image cloud
wget https://cloud-images.ubuntu.com/noble/current/noble-server-cloudimg-amd64.img

# Créer une nouvelle VM
qm create 9000 --name ubuntu-cloud-template --memory 2048 --cores 2 --net0 virtio,bridge=vmbr0

# Importer l'image cloud en tant que disque
qm importdisk 9000 noble-server-cloudimg-amd64.img local-lvm

# Attacher le disque
qm set 9000 --scsihw virtio-scsi-pci --scsi0 local-lvm:vm-9000-disk-0

# Ajouter un lecteur Cloud-Init
qm set 9000 --ide2 local-lvm:cloudinit

# Définir l'ordre de démarrage et la console série
qm set 9000 --boot order=scsi0 --serial0 socket --vga serial0

# Configurer les valeurs par défaut de Cloud-Init
qm set 9000 --ciuser admin --cipassword <password> --sshkeys ~/.ssh/id_rsa.pub
qm set 9000 --ipconfig0 ip=dhcp

# Redimensionner le disque à la taille souhaitée
qm disk resize 9000 scsi0 32G

# Convertir en modèle
qm template 9000

Pour déployer une nouvelle VM depuis le modèle :

# Cloner le modèle en une VM complète
qm clone 9000 110 --name web-server-01 --full

# Personnaliser Cloud-Init pour le clone
qm set 110 --ipconfig0 ip=192.168.1.110/24,gw=192.168.1.1
qm set 110 --nameserver 192.168.1.1
qm set 110 --searchdomain home.lab

# Démarrer la VM clonée
qm start 110

Référence des Commandes CLI Proxmox

Le tableau suivant fournit une référence rapide des commandes CLI Proxmox les plus couramment utilisées :

CommandeDescriptionExemple
qm listLister toutes les machines virtuellesqm list
qm start <vmid>Démarrer une machine virtuelleqm start 101
qm stop <vmid>Arrêter une machine virtuelle (arrêt forcé)qm stop 101
qm shutdown <vmid>Arrêter proprement une VMqm shutdown 101
qm reboot <vmid>Redémarrer une machine virtuelleqm reboot 101
qm create <vmid>Créer une nouvelle machine virtuelleqm create 102 --name myvm --memory 2048
qm destroy <vmid>Supprimer une machine virtuelleqm destroy 102 --purge
qm config <vmid>Afficher la configuration de la VMqm config 101
qm set <vmid>Modifier la configuration de la VMqm set 101 --memory 4096
qm clone <vmid> <newid>Cloner une VM ou un modèleqm clone 9000 103 --name clone-01 --full
qm snapshot <vmid>Créer un snapshotqm snapshot 101 pre-upgrade
qm template <vmid>Convertir une VM en modèleqm template 9000
qm importdisk <vmid>Importer une image disqueqm importdisk 101 image.img local-lvm
pct listLister tous les conteneurspct list
pct start <ctid>Démarrer un conteneurpct start 200
pct stop <ctid>Arrêter un conteneurpct stop 200
pct enter <ctid>Ouvrir un shell dans le conteneurpct enter 200
pct create <ctid>Créer un nouveau conteneurpct create 201 local:vztmpl/ubuntu-24.04-standard.tar.zst
pct destroy <ctid>Supprimer un conteneurpct destroy 201 --purge
pct config <ctid>Afficher la configuration du conteneurpct config 200
pct set <ctid>Modifier la configuration du conteneurpct set 200 --memory 4096
pvesm statusLister tous les backends de stockagepvesm status
pvesm add <type> <id>Ajouter un backend de stockagepvesm add nfs nas --server 192.168.1.50 --export /backup
pvesm list <storage>Lister le contenu d’un stockagepvesm list local
vzdump <vmid/ctid>Sauvegarder une VM ou un conteneurvzdump 101 --mode snapshot --compress zstd
qmrestore <file> <vmid>Restaurer une VM depuis une sauvegardeqmrestore backup.vma.zst 101
pct restore <ctid> <file>Restaurer un conteneur depuis une sauvegardepct restore 200 backup.tar.zst
pveam availableLister les modèles disponiblespveam available --section system
pveam downloadTélécharger un modèlepveam download local ubuntu-24.04-standard.tar.zst
pvecm statusAfficher l’état du clusterpvecm status
pveversionAfficher la version de Proxmoxpveversion --verbose

Dépannage

La VM Ne Démarre Pas : Erreurs IOMMU ou Virtualisation

Si une VM ne parvient pas à démarrer avec des erreurs liées à KVM, vérifiez que la virtualisation matérielle est activée :

# Vérifier si KVM est disponible
kvm-ok

# Si non disponible, vérifier le support de virtualisation du processeur
egrep -c '(vmx|svm)' /proc/cpuinfo

# Vérifier que l'IOMMU est activé (pour le PCI passthrough)
dmesg | grep -e DMAR -e IOMMU

Assurez-vous qu’Intel VT-x ou AMD-V est activé dans les paramètres BIOS/UEFI.

Interface Web Non Accessible

Si vous ne parvenez pas à accéder à l’interface web sur le port 8006 :

# Vérifier si pveproxy est en cours d'exécution
systemctl status pveproxy

# Redémarrer le service proxy
systemctl restart pveproxy

# Vérifier le pare-feu
iptables -L -n | grep 8006

# Vérifier la configuration IP
ip addr show vmbr0

Stockage Plein ou Problèmes d’Espace Disque

Lorsque le stockage est plein, les VMs peuvent se figer ou ne pas démarrer :

# Vérifier l'utilisation du disque
df -h

# Vérifier l'utilisation du thin pool LVM
lvs -a

# Vérifier l'utilisation du pool ZFS (si vous utilisez ZFS)
zpool list
zfs list

# Supprimer les anciennes sauvegardes pour libérer de l'espace
ls -la /var/lib/vz/dump/
rm /var/lib/vz/dump/vzdump-qemu-101-OLD_DATE*.vma.zst

Le Conteneur Ne Démarre Pas avec des Erreurs de Permissions

Les conteneurs non privilégiés peuvent rencontrer des problèmes de permissions avec certaines opérations :

# Vérifier le journal du conteneur
pct start 200 --debug

# Si vous avez besoin de l'imbrication (ex. pour Docker), assurez-vous qu'elle est activée
pct set 200 --features nesting=1

# Pour les problèmes de montage dans les conteneurs non privilégiés, vérifier le mappage des IDs
cat /etc/pve/lxc/200.conf

Problèmes de Communication du Cluster

Si les nœuds perdent le contact entre eux dans un cluster :

# Vérifier l'état du cluster
pvecm status

# Vérifier que Corosync est en cours d'exécution
systemctl status corosync

# Vérifier l'anneau Corosync
pvecm expected 1

# Consulter le journal de Corosync
journalctl -u corosync -f

Performances Lentes de la VM

Si une VM est plus lente que prévu :

# Vérifier si les pilotes VirtIO sont installés dans l'invité
# Pour les invités Windows, installer les pilotes VirtIO depuis l'ISO
# Disponible sur : https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/

# Activer le type de CPU host pour les meilleures performances
qm set 101 --cpu host

# Vérifier si le ballooning cause une pression mémoire
qm monitor 101
# Dans le moniteur, tapez : info balloon

# Vérifier si les E/S disque sont un goulot d'étranglement
iostat -x 1

Résumé

Proxmox VE est un excellent choix comme plateforme de virtualisation pour home lab. Il combine la puissance des machines virtuelles KVM et des conteneurs LXC en une seule plateforme open-source gérée par le web à coût zéro. Dans ce guide, vous avez appris comment installer Proxmox VE, configurer les paramètres post-installation, créer des machines virtuelles et des conteneurs, configurer plusieurs backends de stockage dont ZFS et NFS, configurer le réseau avec les VLANs et l’agrégation de liens, automatiser les sauvegardes avec vzdump et Proxmox Backup Server, et déployer rapidement des VMs avec les modèles et Cloud-Init.

Avec votre home lab Proxmox VE opérationnel, vous pouvez maintenant déployer des services comme des conteneurs Docker dans vos VMs ou conteneurs LXC. Consultez notre guide sur Comment Installer Docker sur Ubuntu pour commencer avec les applications conteneurisées. Pour sécuriser vos machines virtuelles, suivez notre guide sur Comment Configurer le Pare-feu UFW sur Ubuntu Server pour mettre en place des règles de pare-feu appropriées sur vos systèmes d’exploitation invités.