PROJET AUTOBLOG


memo-linux.com

Site original : memo-linux.com

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Proxmox : créer un cluster sur un réseau privé sans switch

mardi 3 décembre 2019 à 16:32

Un mémo sur comment créer un cluster de nœuds Proxmox sur un réseau privé sans switch dédié en utilisant la topologie mesh.

L’avantage de cette solution est surtout économique car pas besoin d’acheter un commutateur/switch en plus pour le réseau privé, juste prévoir une carte réseau additionnelle avec 2 ports Ethernet en 10Gb/s de préférence. De plus, cette solution est assez facile à mettre en place avec Proxmox.

Proxmox : configuration du réseau

NB : pour l’agrégation des cartes en 10Gb/s, ne pas oublier de choisir le mode Broadcast :

Mise en cluster des 3 nœuds Proxmox

Ressource

Proxmox : Legacy BlueStore stats reporting detected on OSD(s)

mardi 24 septembre 2019 à 16:05

A ce jour de la rédaction de ce mémo, la version actuelle de Nautilus 12.2.2 mis à niveau (Ceph Luminous vers Nautilus) avec les OSD en BlueStore est buggué.

ceph -s

Le problème actuel est que les statistiques du pool affichent des valeurs inférieures à la valeur réelle. Un correctif est en cours de déploiement et sera incluse dans la version 14.2.3 de Nautilus.

En attendant la diffusion du correctif, il est possible de palier à ce problème. Avant toute intervention sur le Ceph, vérifier les sauvegardes au cas de problème.

Pour rappel, la commande pour lister les OSD :

ceph osd tree

Exemple en image d’une opération sur un OSD du cluster Ceph :

Ressource

Proxmox Cluster Ceph : migration version 5 vers 6

mardi 30 juillet 2019 à 14:15

Un mémo sur comment migrer un cluster Proxmox 5 HA avec Ceph Luminous vers un cluster Proxmox 6 HA avec Ceph Nautilus.

La migration du cluster Proxmox Ceph se déroule en 3 étapes :

Afin d’avoir une continuité de service, la migration de Proxmox 5 vers 6 a été réalisée noeud après noeud (sauf pour la mise à niveau de Corosync) tout en migrant les VM vers les noeuds en ligne.

De plus, toutes les VM ont été retirées des groupes de la HA afin que les VM ne migrent pas automatiquement sur les autres noeuds du cluster Proxmox.

Mise en garde

Faire des sauvegardes de toutes les VM et vérifier leur intégritées avant de procéder à la migration de Proxmox 5 vers 6.

Mise à jour de Corosync 3

Sur chaque noeuds du cluster Proxmox :

apt update && apt full-upgrade
systemctl stop pve-ha-lrm
systemctl stop pve-ha-crm
echo "deb http://download.proxmox.com/debian/corosync-3/ stretch main" > /etc/apt/sources.list.d/corosync3.list
apt update && apt full-upgrade
pvecm status
systemctl start pve-ha-lrm
systemctl start pve-ha-crm

Mise à jour de Proxmox 5.4 vers 6

Les étapes suivantes peuvent être faite noeud après noeud sans interruption de service, en ayant migrer les VM sur les autres noeuds.

Finalisation migration Ceph Luminous vers Nautilus

Attention, cette étape est la plus délicate et dangereuse. Avant de commencer l’étape de migration de Ceph Luminous vers Nautilus, s’assurer que le status du Ceph soit OK :

Autre attention particulière, si comme moi votre cluster Ceph a été migrer de Jewel vers Luninous, il faut impérativement vérifier que Ceph a effectué au moins un nettoyage complet de touts les PG lors de l’exécution de Luminous. Sinon, les démons de contrôle refuseront de rejoindre le quorum au démarrage, les laissant non fonctionnels.

Afin de vérifier si un nettoyage complet a été effectué sur tous les PG, vérifier avec la commande suivante si les drapeaux recovery_deletes et purged_snapdirs sont présent :

ceph osd dump | grep ^flags

Dans le cas contraire, d’après le doc officielle attendre entre 24 et 48h avant de procéder à la migration de Ceph Luminous vers Nautilus ou exécuter la commande suivante afin d’accélérer le processus de nettoyage :

ceph pg dump pgs_brief | cut -d " " -f 1 | xargs -n1 ceph pg scrub

nb : Je n’ai pas testé cette commande, car mon cluster Ceph était propre.

Si tout est OK, alors procéder à la migration de Ceph Luminous vers Nautilus.

La migration de proxmox 5 vers Proxmox 6 et Ceph Luninous vers Nautilus est entièrement terminée.

Ressources

Linux ssh : connexion par rebond avec X11-Forwarding

jeudi 25 juillet 2019 à 13:35

Un petit mémo sur comment se connecter à un serveur par rebond avec X11-forwarding sans interface graphique sur le serveur intermédaire pour résoudre l’erreur : Can’t open display.

Situation de départ

Premier test :

pc-linux$ ssh -X serveur-A
serveur-A$ ssh -X serveur-B
serveur-B$ xclock

Error: Can’t open display:

Connexion par rebond sans interface graphique avec X-Forwarding

Second test :

pc-linux$ ssh -X serveur-A
serveur-A$ ssh -X serveur-B
serveur-B$ xclock

Proxmox : Ceph health error 1 pgs inconsistent

mercredi 17 juillet 2019 à 15:13

Un petit mémo sur comment résoudre l’erreur Ceph health error 1 pgs inconsistent sous Proxmox.