Proxmox Virtual Environment (Proxmox VE) est une puissante plateforme de virtualisation de serveurs open-source qui combine l’hyperviseur KVM et la technologie de conteneurs LXC sous une interface de gestion unique. Que vous construisiez un home lab pour apprendre l’administration système, l’auto-hébergement d’applications ou l’exploitation d’un petit environnement de production, Proxmox VE fournit des fonctionnalités de niveau entreprise sans coûts de licence. Ce guide vous accompagne tout au long du processus de configuration complet, de l’installation bare-metal au lancement de vos premières machines virtuelles et conteneurs, avec les configurations de stockage, réseau et sauvegarde en cours de route.
Prérequis
Avant de commencer, assurez-vous d’avoir :
- Une machine dédiée (serveur, PC de bureau ou mini PC) avec un processeur 64 bits supportant Intel VT-x ou AMD-V
- Au moins 8 Go de RAM (16 Go ou plus recommandé pour exécuter plusieurs VMs)
- Un SSD ou disque NVMe dédié (64 Go minimum) pour le système Proxmox
- Un stockage supplémentaire (HDD ou SSD) pour les disques des VMs et conteneurs
- Une clé USB (2 Go ou plus) pour l’installateur
- Une connexion Ethernet filaire à votre réseau local
- Un ordinateur séparé avec un navigateur web pour la gestion
Qu’est-ce que Proxmox VE ?
Proxmox VE est une distribution Linux basée sur Debian conçue spécifiquement pour la virtualisation. Elle intègre deux technologies de virtualisation en une seule plateforme :
- KVM (Kernel-based Virtual Machine) — virtualisation matérielle complète permettant d’exécuter des systèmes d’exploitation complets y compris Windows, Linux et BSD avec du matériel virtuel dédié
- LXC (Linux Containers) — virtualisation au niveau du système d’exploitation qui exécute des instances Linux isolées partageant le noyau de l’hôte, offrant des performances quasi natives avec une surcharge minimale
La plateforme est gérée via une interface web accessible sur le port 8006 et prend en charge le clustering, la migration en direct, le stockage défini par logiciel et le réseau défini par logiciel. Proxmox VE est sous licence GNU AGPL v3, ce qui signifie qu’il est entièrement gratuit, avec des abonnements payants optionnels pour le support entreprise et l’accès au dépôt.
Proxmox VE vs VMware vs Hyper-V
Comprendre comment Proxmox se compare aux autres hyperviseurs populaires vous aide à prendre une décision éclairée pour votre home lab :
| Caractéristique | Proxmox VE | VMware ESXi | Microsoft Hyper-V |
|---|---|---|---|
| Coût | Gratuit (open-source) | Niveau gratuit limité, vSphere sous licence | Gratuit avec Windows Server |
| Type d’hyperviseur | Type 1 (KVM) | Type 1 | Type 1 |
| Support des conteneurs | LXC intégré | Nécessite Docker/K8s séparé | Nécessite une configuration séparée |
| Interface web | Intégrée (port 8006) | Nécessite vSphere Client | Windows Admin Center |
| Stockage | ZFS, Ceph, NFS, LVM | VMFS, vSAN, NFS | ReFS, CSV, SMB |
| Clustering | Gratuit (jusqu’à 32 nœuds) | Nécessite licence vCenter | Nécessite Windows Server |
| Migration en direct | Gratuit | Nécessite licence vMotion | Gratuit avec clustering |
| Sauvegarde | vzdump + PBS intégrés | Nécessite des outils tiers | Nécessite Windows Server Backup |
| SE de base | Debian Linux | Propriétaire | Windows Server |
| Communauté | Grande, forums actifs | Grande, orientée entreprise | Écosystème Microsoft |
Proxmox VE se distingue pour les home labs car il est entièrement fonctionnel à coût zéro, prend en charge nativement les VMs et les conteneurs, et inclut la sauvegarde et le clustering intégrés sans licence supplémentaire.
Installation de Proxmox VE
Télécharger l’ISO
Téléchargez le dernier installateur ISO de Proxmox VE depuis la page officielle de téléchargement à l’adresse https://www.proxmox.com/en/downloads. Au moment de la rédaction, la version actuelle est Proxmox VE 8.x.
Créer une Clé USB Bootable
Sous Linux, utilisez dd pour écrire l’ISO sur une clé USB :
# Identifiez votre clé USB (soyez très prudent dans le choix du bon périphérique)
lsblk
# Écrivez l'ISO sur la clé USB (remplacez /dev/sdX par votre périphérique USB)
sudo dd bs=1M conv=fdatasync if=proxmox-ve_8.*.iso of=/dev/sdX status=progress
Sous Windows, utilisez Etcher ou Rufus en mode DD pour écrire l’ISO.
Lancer l’Installateur
Démarrez la machine cible depuis la clé USB et suivez ces étapes :
- Sélectionnez Install Proxmox VE (Graphical) dans le menu de démarrage
- Acceptez le CLUF
- Sélectionnez le disque cible pour l’installation — Proxmox utilisera le disque entier. Pour ZFS, vous pouvez sélectionner plusieurs disques dans une configuration RAID
- Définissez votre pays, fuseau horaire et disposition du clavier
- Saisissez un mot de passe root robuste et une adresse e-mail valide pour les notifications
- Configurez l’interface réseau de gestion : définissez un nom d’hôte (ex.
pve.home.lab), une adresse IP, une passerelle et un serveur DNS - Vérifiez le résumé et cliquez sur Install
L’installation prend environ 5 à 10 minutes. Une fois terminée, retirez la clé USB et redémarrez.
Configuration Post-Installation
Accéder à l’Interface Web
Une fois le serveur démarré, ouvrez un navigateur sur un autre ordinateur et accédez à :
https://IP_DE_VOTRE_SERVEUR:8006
Connectez-vous avec le nom d’utilisateur root et le mot de passe défini lors de l’installation. Le domaine doit être Linux PAM standard authentication.
Supprimer l’Avis d’Abonnement
Si vous utilisez Proxmox VE sans abonnement payant, vous verrez un dialogue d’avis d’abonnement à chaque connexion. Vous pouvez le fermer en toute sécurité ou le supprimer en modifiant le fichier JavaScript :
# Sauvegardez d'abord le fichier original
cp /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js.bak
# Supprimez l'avis d'abonnement
sed -Ei.bak "s/res === null \|\| res === undefined \|\| \!res \|\| res.data.status.toLowerCase\(\) !== 'active'/false/g" /usr/share/javascript/proxmox-widget-toolkit/proxmoxlib.js
# Redémarrez le service web
systemctl restart pveproxy.service
Passer au Dépôt No-Subscription
Le dépôt enterprise nécessite une clé d’abonnement payante. Passez au dépôt gratuit no-subscription :
# Désactivez le dépôt enterprise
sed -i 's/^deb/#deb/' /etc/apt/sources.list.d/pve-enterprise.list
# Ajoutez le dépôt no-subscription
echo "deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list
# Mettez à jour et mettez à niveau le système
apt update && apt full-upgrade -y
Désactiver le Dépôt Enterprise de Ceph
Si vous voyez une erreur concernant le dépôt enterprise de Ceph :
# Désactivez le dépôt enterprise de Ceph
sed -i 's/^deb/#deb/' /etc/apt/sources.list.d/ceph.list
Création de Machines Virtuelles (KVM)
Télécharger une Image ISO
Avant de créer une VM, téléchargez une ISO d’installation vers Proxmox. Dans l’interface web :
- Naviguez vers votre nœud dans la barre latérale gauche
- Cliquez sur local (pve) sous le nœud
- Sélectionnez ISO Images dans le menu de contenu
- Cliquez sur Upload et sélectionnez votre fichier ISO, ou utilisez Download from URL pour le télécharger directement
Alternativement, utilisez la ligne de commande :
# Téléchargez l'ISO Ubuntu Server directement dans le stockage ISO
cd /var/lib/vz/template/iso/
wget https://releases.ubuntu.com/24.04/ubuntu-24.04.1-live-server-amd64.iso
Créer une Nouvelle VM
Depuis l’interface web, cliquez sur Create VM dans le coin supérieur droit. Configurez les onglets suivants :
General :
- Node : votre nœud Proxmox
- VM ID : attribué automatiquement ou choisissez votre propre schéma de numérotation (ex. 100+)
- Name : nom descriptif (ex.
ubuntu-server-01)
OS :
- Sélectionnez l’image ISO téléchargée
- Type : Linux, Version : 6.x - 2.6 Kernel
System :
- Machine : q35 (recommandé pour les systèmes invités modernes)
- BIOS : OVMF (UEFI) pour un SE moderne ou SeaBIOS pour legacy
- Ajoutez un EFI Disk si vous utilisez UEFI
- SCSI Controller : VirtIO SCSI single
Disks :
- Bus : VirtIO Block ou SCSI
- Taille du disque : selon les besoins (ex. 32 Go pour un serveur)
- Activez Discard pour le thin provisioning sur les SSDs
- Activez SSD emulation si le stockage sous-jacent est un SSD
CPU :
- Cores : allouez selon la charge de travail (ex. 2-4)
- Type :
hostpour les meilleures performances (oux86-64-v2-AESpour la compatibilité de migration)
Memory :
- Définissez la RAM souhaitée (ex. 2048 Mo pour un serveur léger)
- Activez Ballooning pour l’allocation dynamique de mémoire
Network :
- Bridge :
vmbr0(bridge par défaut) - Model : VirtIO (paravirtualisé)
Cliquez sur Finish pour créer la VM, puis démarrez-la et ouvrez la console pour terminer l’installation du SE.
Configuration Optimale de VM via CLI
Vous pouvez également créer et configurer des VMs avec la commande qm :
# Créer une VM avec l'ID 101
qm create 101 --name ubuntu-server-01 --memory 2048 --cores 2 --net0 virtio,bridge=vmbr0
# Importer une image disque
qm importdisk 101 ubuntu-cloud.img local-lvm
# Attacher le disque importé
qm set 101 --scsi0 local-lvm:vm-101-disk-0
# Définir l'ordre de démarrage
qm set 101 --boot order=scsi0
# Démarrer la VM
qm start 101
Création de Conteneurs LXC
Les conteneurs LXC sont l’alternative légère aux VMs complètes. Ils partagent le noyau de l’hôte, démarrent en quelques secondes et utilisent une fraction des ressources.
Télécharger des Modèles de Conteneurs
Dans l’interface web :
- Naviguez vers votre nœud > local (pve) > CT Templates
- Cliquez sur Templates et sélectionnez dans la liste disponible (Ubuntu, Debian, Alpine, etc.)
Ou depuis la ligne de commande :
# Lister les modèles disponibles
pveam available --section system
# Télécharger un modèle
pveam download local ubuntu-24.04-standard_24.04-2_amd64.tar.zst
Créer un Nouveau Conteneur
Cliquez sur Create CT dans l’interface web et configurez :
# Créer un conteneur avec l'ID 200
pct create 200 local:vztmpl/ubuntu-24.04-standard_24.04-2_amd64.tar.zst \
--hostname docker-host \
--memory 2048 \
--swap 512 \
--cores 2 \
--net0 name=eth0,bridge=vmbr0,ip=dhcp \
--storage local-lvm \
--rootfs local-lvm:8 \
--unprivileged 1 \
--features nesting=1 \
--password
# Démarrer le conteneur
pct start 200
# Entrer dans la console du conteneur
pct enter 200
Options clés expliquées :
--unprivileged 1— exécute le conteneur sans accès root à l’hôte (recommandé pour la sécurité)--features nesting=1— active l’imbrication, nécessaire pour exécuter Docker dans un conteneur LXC--rootfs local-lvm:8— crée un système de fichiers racine de 8 Go sur le stockage local-lvm
Conteneurs Privilégiés vs Non Privilégiés
Les conteneurs non privilégiés mappent la plage UID/GID du conteneur vers une plage non privilégiée sur l’hôte, offrant une meilleure isolation de sécurité. Utilisez des conteneurs privilégiés uniquement lorsque c’est nécessaire, par exemple lorsque vous avez besoin d’un accès direct au matériel de l’hôte (ex. passthrough GPU ou montages NFS).
Configuration du Stockage
Proxmox VE prend en charge plusieurs backends de stockage. Le choix du bon dépend de votre matériel et de votre cas d’utilisation.
Stockage Local (Par Défaut)
L’installation par défaut crée deux entrées de stockage :
- local — stockage basé sur un répertoire à
/var/lib/vzpour les ISOs, modèles et sauvegardes - local-lvm — un thin pool LVM pour les disques de VMs et les volumes de conteneurs
Vérifiez votre configuration de stockage actuelle :
# Lister tout le stockage configuré
pvesm status
# Afficher les informations détaillées
pvesm list local
pvesm list local-lvm
Stockage ZFS
ZFS fournit un RAID intégré, des snapshots, la compression et la vérification de l’intégrité des données. Si vous avez sélectionné ZFS lors de l’installation, il est déjà configuré. Pour ajouter un nouveau pool ZFS :
# Créer un pool ZFS en miroir avec deux disques
zpool create -f tank mirror /dev/sdb /dev/sdc
# Activer la compression
zfs set compression=lz4 tank
# Ajouter le pool ZFS au stockage Proxmox
pvesm add zfspool zfs-tank --pool tank --content images,rootdir
# Vérifier le stockage
pvesm status
Stockage NFS
NFS est idéal pour le stockage partagé entre plusieurs nœuds Proxmox, particulièrement pour les ISOs, modèles et sauvegardes :
# Ajouter un stockage NFS depuis un NAS
pvesm add nfs nas-backup \
--server 192.168.1.50 \
--export /volume1/proxmox-backup \
--content backup,iso,vztmpl \
--options vers=4.1
# Vérifier la connectivité
pvesm status
Stockage Ceph
Pour les clusters multi-nœuds, Ceph fournit un stockage distribué et répliqué :
# Installer les paquets Ceph sur tous les nœuds (exécuter sur chaque nœud)
pveceph install
# Initialiser le cluster Ceph (exécuter sur le premier nœud)
pveceph init --network 10.10.10.0/24
# Créer des moniteurs sur chaque nœud
pveceph mon create
# Ajouter des OSDs (un par disque, sur chaque nœud)
pveceph osd create /dev/sdb
pveceph osd create /dev/sdc
# Créer un pool de stockage
pveceph pool create vm-pool --pg_num 128
# Ajouter le pool au stockage Proxmox
pvesm add rbd ceph-pool --pool vm-pool --content images,rootdir
Réseau
Configuration du Bridge Par Défaut
Lors de l’installation, Proxmox crée vmbr0, un bridge Linux lié à votre interface réseau physique. Consultez la configuration réseau :
# Afficher la configuration réseau actuelle
cat /etc/network/interfaces
La configuration par défaut ressemble à :
auto lo
iface lo inet loopback
iface enp0s31f6 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge-ports enp0s31f6
bridge-stp off
bridge-fd 0
Configuration des VLANs
Les VLANs permettent de segmenter le trafic réseau. Activez la prise en charge des VLANs sur le bridge :
# Modifier la configuration réseau
nano /etc/network/interfaces
Ajoutez bridge-vlan-aware yes à la définition du bridge :
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge-ports enp0s31f6
bridge-stp off
bridge-fd 0
bridge-vlan-aware yes
bridge-vids 2-4094
Appliquez la configuration :
# Appliquer les modifications réseau (soyez prudent sur les systèmes distants)
ifreload -a
Vous pouvez maintenant attribuer des VLANs aux VMs et conteneurs dans leur configuration réseau en ajoutant un tag VLAN (ex. tag=10 pour le VLAN 10).
Agrégation de Liens Réseau
Pour la redondance et un débit accru, agrégez plusieurs interfaces réseau :
auto bond0
iface bond0 inet manual
bond-slaves enp0s31f6 enp1s0
bond-miimon 100
bond-mode 802.3ad
bond-xmit-hash-policy layer3+4
auto vmbr0
iface vmbr0 inet static
address 192.168.1.100/24
gateway 192.168.1.1
bridge-ports bond0
bridge-stp off
bridge-fd 0
Sauvegarde et Restauration
Sauvegarde avec vzdump
Proxmox inclut vzdump pour sauvegarder les VMs et conteneurs. Il existe trois modes de sauvegarde :
- Snapshot — prend un snapshot en direct sans arrêter l’invité (recommandé)
- Suspend — suspend brièvement l’invité pour la cohérence
- Stop — arrête l’invité avant la sauvegarde (plus cohérent mais provoque une interruption)
Créer une sauvegarde manuelle :
# Sauvegarder la VM 101 en mode snapshot
vzdump 101 --mode snapshot --compress zstd --storage local
# Sauvegarder le conteneur 200 en mode snapshot
vzdump 200 --mode snapshot --compress zstd --storage local
# Sauvegarder tous les invités du nœud
vzdump --all --mode snapshot --compress zstd --storage local
Planifier des Sauvegardes Automatiques
Depuis l’interface web, naviguez vers Datacenter > Backup > Add pour créer une tâche de sauvegarde planifiée. Ou configurez via CLI :
# Modifier la configuration de la tâche de sauvegarde
nano /etc/pve/jobs.cfg
Ajoutez une tâche de sauvegarde :
vzdump: daily-backup
enabled 1
schedule daily
all 1
mode snapshot
compress zstd
storage local
mailnotification always
mailto admin@example.com
Restaurer depuis une Sauvegarde
Restaurez une VM ou un conteneur depuis une sauvegarde :
# Lister les sauvegardes disponibles
ls /var/lib/vz/dump/
# Restaurer une sauvegarde de VM
qmrestore /var/lib/vz/dump/vzdump-qemu-101-2026_01_21-02_00_00.vma.zst 101
# Restaurer une sauvegarde de conteneur
pct restore 200 /var/lib/vz/dump/vzdump-lxc-200-2026_01_21-02_00_00.tar.zst
Proxmox Backup Server (PBS)
Pour une gestion avancée des sauvegardes, déployez un Proxmox Backup Server dédié. PBS fournit :
- Sauvegardes incrémentales avec déduplication des données
- Chiffrement côté client
- Vérification et contrôle d’intégrité des sauvegardes
- Historique détaillé et statistiques des sauvegardes
Ajoutez PBS comme backend de stockage dans Proxmox VE :
# Ajouter le stockage PBS
pvesm add pbs pbs-server \
--server 192.168.1.51 \
--datastore backups \
--username backup@pbs \
--password \
--fingerprint <PBS_FINGERPRINT>
Modèles et Cloud-Init
Création de Modèles
Les modèles permettent de déployer rapidement des VMs identiques. Convertissez une VM existante en modèle :
# Arrêtez d'abord la VM
qm stop 101
# Convertir en modèle
qm template 101
Intégration Cloud-Init
Cloud-Init permet la configuration automatique des VMs au premier démarrage (nom d’hôte, clés SSH, réseau, utilisateurs). Créez un modèle compatible Cloud-Init :
# Télécharger une image cloud
wget https://cloud-images.ubuntu.com/noble/current/noble-server-cloudimg-amd64.img
# Créer une nouvelle VM
qm create 9000 --name ubuntu-cloud-template --memory 2048 --cores 2 --net0 virtio,bridge=vmbr0
# Importer l'image cloud en tant que disque
qm importdisk 9000 noble-server-cloudimg-amd64.img local-lvm
# Attacher le disque
qm set 9000 --scsihw virtio-scsi-pci --scsi0 local-lvm:vm-9000-disk-0
# Ajouter un lecteur Cloud-Init
qm set 9000 --ide2 local-lvm:cloudinit
# Définir l'ordre de démarrage et la console série
qm set 9000 --boot order=scsi0 --serial0 socket --vga serial0
# Configurer les valeurs par défaut de Cloud-Init
qm set 9000 --ciuser admin --cipassword <password> --sshkeys ~/.ssh/id_rsa.pub
qm set 9000 --ipconfig0 ip=dhcp
# Redimensionner le disque à la taille souhaitée
qm disk resize 9000 scsi0 32G
# Convertir en modèle
qm template 9000
Pour déployer une nouvelle VM depuis le modèle :
# Cloner le modèle en une VM complète
qm clone 9000 110 --name web-server-01 --full
# Personnaliser Cloud-Init pour le clone
qm set 110 --ipconfig0 ip=192.168.1.110/24,gw=192.168.1.1
qm set 110 --nameserver 192.168.1.1
qm set 110 --searchdomain home.lab
# Démarrer la VM clonée
qm start 110
Référence des Commandes CLI Proxmox
Le tableau suivant fournit une référence rapide des commandes CLI Proxmox les plus couramment utilisées :
| Commande | Description | Exemple |
|---|---|---|
qm list | Lister toutes les machines virtuelles | qm list |
qm start <vmid> | Démarrer une machine virtuelle | qm start 101 |
qm stop <vmid> | Arrêter une machine virtuelle (arrêt forcé) | qm stop 101 |
qm shutdown <vmid> | Arrêter proprement une VM | qm shutdown 101 |
qm reboot <vmid> | Redémarrer une machine virtuelle | qm reboot 101 |
qm create <vmid> | Créer une nouvelle machine virtuelle | qm create 102 --name myvm --memory 2048 |
qm destroy <vmid> | Supprimer une machine virtuelle | qm destroy 102 --purge |
qm config <vmid> | Afficher la configuration de la VM | qm config 101 |
qm set <vmid> | Modifier la configuration de la VM | qm set 101 --memory 4096 |
qm clone <vmid> <newid> | Cloner une VM ou un modèle | qm clone 9000 103 --name clone-01 --full |
qm snapshot <vmid> | Créer un snapshot | qm snapshot 101 pre-upgrade |
qm template <vmid> | Convertir une VM en modèle | qm template 9000 |
qm importdisk <vmid> | Importer une image disque | qm importdisk 101 image.img local-lvm |
pct list | Lister tous les conteneurs | pct list |
pct start <ctid> | Démarrer un conteneur | pct start 200 |
pct stop <ctid> | Arrêter un conteneur | pct stop 200 |
pct enter <ctid> | Ouvrir un shell dans le conteneur | pct enter 200 |
pct create <ctid> | Créer un nouveau conteneur | pct create 201 local:vztmpl/ubuntu-24.04-standard.tar.zst |
pct destroy <ctid> | Supprimer un conteneur | pct destroy 201 --purge |
pct config <ctid> | Afficher la configuration du conteneur | pct config 200 |
pct set <ctid> | Modifier la configuration du conteneur | pct set 200 --memory 4096 |
pvesm status | Lister tous les backends de stockage | pvesm status |
pvesm add <type> <id> | Ajouter un backend de stockage | pvesm add nfs nas --server 192.168.1.50 --export /backup |
pvesm list <storage> | Lister le contenu d’un stockage | pvesm list local |
vzdump <vmid/ctid> | Sauvegarder une VM ou un conteneur | vzdump 101 --mode snapshot --compress zstd |
qmrestore <file> <vmid> | Restaurer une VM depuis une sauvegarde | qmrestore backup.vma.zst 101 |
pct restore <ctid> <file> | Restaurer un conteneur depuis une sauvegarde | pct restore 200 backup.tar.zst |
pveam available | Lister les modèles disponibles | pveam available --section system |
pveam download | Télécharger un modèle | pveam download local ubuntu-24.04-standard.tar.zst |
pvecm status | Afficher l’état du cluster | pvecm status |
pveversion | Afficher la version de Proxmox | pveversion --verbose |
Dépannage
La VM Ne Démarre Pas : Erreurs IOMMU ou Virtualisation
Si une VM ne parvient pas à démarrer avec des erreurs liées à KVM, vérifiez que la virtualisation matérielle est activée :
# Vérifier si KVM est disponible
kvm-ok
# Si non disponible, vérifier le support de virtualisation du processeur
egrep -c '(vmx|svm)' /proc/cpuinfo
# Vérifier que l'IOMMU est activé (pour le PCI passthrough)
dmesg | grep -e DMAR -e IOMMU
Assurez-vous qu’Intel VT-x ou AMD-V est activé dans les paramètres BIOS/UEFI.
Interface Web Non Accessible
Si vous ne parvenez pas à accéder à l’interface web sur le port 8006 :
# Vérifier si pveproxy est en cours d'exécution
systemctl status pveproxy
# Redémarrer le service proxy
systemctl restart pveproxy
# Vérifier le pare-feu
iptables -L -n | grep 8006
# Vérifier la configuration IP
ip addr show vmbr0
Stockage Plein ou Problèmes d’Espace Disque
Lorsque le stockage est plein, les VMs peuvent se figer ou ne pas démarrer :
# Vérifier l'utilisation du disque
df -h
# Vérifier l'utilisation du thin pool LVM
lvs -a
# Vérifier l'utilisation du pool ZFS (si vous utilisez ZFS)
zpool list
zfs list
# Supprimer les anciennes sauvegardes pour libérer de l'espace
ls -la /var/lib/vz/dump/
rm /var/lib/vz/dump/vzdump-qemu-101-OLD_DATE*.vma.zst
Le Conteneur Ne Démarre Pas avec des Erreurs de Permissions
Les conteneurs non privilégiés peuvent rencontrer des problèmes de permissions avec certaines opérations :
# Vérifier le journal du conteneur
pct start 200 --debug
# Si vous avez besoin de l'imbrication (ex. pour Docker), assurez-vous qu'elle est activée
pct set 200 --features nesting=1
# Pour les problèmes de montage dans les conteneurs non privilégiés, vérifier le mappage des IDs
cat /etc/pve/lxc/200.conf
Problèmes de Communication du Cluster
Si les nœuds perdent le contact entre eux dans un cluster :
# Vérifier l'état du cluster
pvecm status
# Vérifier que Corosync est en cours d'exécution
systemctl status corosync
# Vérifier l'anneau Corosync
pvecm expected 1
# Consulter le journal de Corosync
journalctl -u corosync -f
Performances Lentes de la VM
Si une VM est plus lente que prévu :
# Vérifier si les pilotes VirtIO sont installés dans l'invité
# Pour les invités Windows, installer les pilotes VirtIO depuis l'ISO
# Disponible sur : https://fedorapeople.org/groups/virt/virtio-win/direct-downloads/
# Activer le type de CPU host pour les meilleures performances
qm set 101 --cpu host
# Vérifier si le ballooning cause une pression mémoire
qm monitor 101
# Dans le moniteur, tapez : info balloon
# Vérifier si les E/S disque sont un goulot d'étranglement
iostat -x 1
Résumé
Proxmox VE est un excellent choix comme plateforme de virtualisation pour home lab. Il combine la puissance des machines virtuelles KVM et des conteneurs LXC en une seule plateforme open-source gérée par le web à coût zéro. Dans ce guide, vous avez appris comment installer Proxmox VE, configurer les paramètres post-installation, créer des machines virtuelles et des conteneurs, configurer plusieurs backends de stockage dont ZFS et NFS, configurer le réseau avec les VLANs et l’agrégation de liens, automatiser les sauvegardes avec vzdump et Proxmox Backup Server, et déployer rapidement des VMs avec les modèles et Cloud-Init.
Avec votre home lab Proxmox VE opérationnel, vous pouvez maintenant déployer des services comme des conteneurs Docker dans vos VMs ou conteneurs LXC. Consultez notre guide sur Comment Installer Docker sur Ubuntu pour commencer avec les applications conteneurisées. Pour sécuriser vos machines virtuelles, suivez notre guide sur Comment Configurer le Pare-feu UFW sur Ubuntu Server pour mettre en place des règles de pare-feu appropriées sur vos systèmes d’exploitation invités.