PROJET AUTOBLOG


memo-linux.com

Site original : memo-linux.com

⇐ retour index

Nextcloud : mettre à jour vers la version 13

jeudi 15 février 2018 à 13:50

Un mémo sur comment migrer facilement vers la version 13 de Nextcloud.
Dans cet article, la mise à niveau vers la version 13 se fait à partir de la version 12 de Nexcloud, de plus l’opération de migration est entièrement réalisée via l’interface web. Toute fois, pour de grosses bases de données, il est préférable de passer par la ligne de commande.
En deuxième partie de l’article, j’indique la commande permettant de migrer vers Nextcloud 13 sous Yunohost.

Nextcloud : mettre à jour vers la version 13 via l’interface web

Yunohost : migrer vers Nextcloud 13

Sous Yunohost, la migration vers Nextcloud 13 est entièrement automatisée et du coup, encore plus simple. Attention, cette version est une RC et non une version stable. Cependant, j’ai pu la tester et ça fonctionne bien et du coup, l’utilisation de Talk est possible avec Android.

MariaDB: déplacer le répertoire /var/lib/mysql

vendredi 2 février 2018 à 14:55

Un mémo sur comment déplacer le répertoire /var/lib/mysql vers la partition /home afin d’éviter la saturation de la partition système du serveur.

Dans le cas présent, le déplacement du répertoire hébergeant les bases de données, a été déplacé après saturation de la partition système. Ce qui a eu pour conséquence d’arrêter le serveur MariaDB de façon brutal.

Déplacer le répertoire /var/lib/mysql

Modifier le chemin de la base de données dans le fichier de configuration de MariaDB

Modifier le service mariadb.service

Pour éviter l’erreur : mysql can’t creat test files .lower-test

Supprimer le fichier tc.log

Supprimer le fichier tc.log afin d’éviter l’erreur : [ERROR] Can’t init tc log

rm /home/{user}/mysql/tc.log

Démarer le serveur MariaDB

A ce stade, il est possible de redémarrer le serveur de base de données MariaDB :

systemctl start mariadb.service

Réparer les tables de la base de données

Par précaution, une tache d’auto-réparation de table va être exécutées afin d’éviter l’erreur : is marked as crashed and should be repaired

mysqlcheck -u root -p --auto-repair --check database

activer l’interface tun/tap dans un conteneur LXC sous Proxmox

mardi 23 janvier 2018 à 14:48

Un mémo sur comment activer l’interface tun/tap dans un conteneur LXC sous Proxmox afin de se connecter à un serveur OpenVPN.

Modification de la configuration de la VM LXC

Intervention sur l’Hyperviseur Proxmox.

Création de l’interface TUN/TAP dans le conteneur LXC

Intervention sur le machine virtuelle.

Dans mon cas, je n’ai pas eu besoin de redémarrer le conteneur LXC, j’ai pu de suite me connecter à un serveur OpenVPN.

Ressource

Ubuntu : activer la gestion des interfaces réseaux dans Network Manager

vendredi 12 janvier 2018 à 14:56

Par défaut sous Ubuntu 16.04 Xenial, la gestion des interfaces réseaux dans Network Manager est désactivée.

Procédure pour activer la gestion des interfaces réseaux :

via https://askubuntu.com/questions/71159/network-manager-says-device-not-managed

Proxmox : résoudre l’erreur Full OSD d’un cluster Ceph

jeudi 11 janvier 2018 à 16:40

Un mémo sur comment résoudre l’erreur « Full OSD » et supprimer totalement l’espace disque occupé par une machine virtulle sur un cluster Proxmox HA avec du Ceph.

Si on ne fait pas attention, il est possible de remplir rapidement un volume Ceph et de saturer en espace les OSD qui composent le pool.
Dans cet article, je vous propose une méthode que j’ai appliqué sur un de mes cluster Proxmox HA dont un OSD a été rempli presque entièrement. A savoir, le volume Ceph de disponible était rempli à 85%.

Vérifier le statut du cluster Ceph

Sortir l’OSD plein du pool Ceph

Dans l’état où se trouve le Cluster, je ne peux rien faire car toutes les opérations manuelles que j’exécuterais ne feront pas d’effet. Exemple de supression d’un volume disque d’une VM :

rbd rm --pool Mon_Pool vm-1055-disk-1

J’obtiens comme résultat :

2018-01-11 15:16:20.771690 7fe2bfe1ea00 0 client.8754619.objecter FULL, paused modify 0x55c0f50528c0 tid 0

Ce message indique que l’opération est en pause et ne pourra aboutir.

La solution que je vous propose dans cet article, est de sortir l’OSD plein du pool Ceph.

Dès à présent le cluster Ceph n’est plus en erreur mais reste en warning, cependant je peux réaliser des actions.

Faire de la place dans le pool Ceph

A ce stade, mon cluster Ceph est de nouveau opérationnel mais son statut reste en warning car il faut que je libère encore de la place… Cependant, avec cette méthode il est possible d’intervenir sur le cluster Ceph.