PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Bon, ben 6 ans, et 500 articles !

dimanche 29 septembre 2019 à 10:30

Eh oui, que cette année est passée vite. Avec quelques soubresauts dans ma vie personnelle et professionnelle, et les projets pour le blog disons… Voyons ça de près.

Le thème toujours au point mort

Au moins j’ai l’environnement de test sur mon cluster Docker. J’en ferai probablement un petit article pour vous montrer à quel point WordPress est souple à l’usage. Mais l’environnement m’a surtout pour l’instant permis d’expérimenter sur des modules liés à la sécurité (formulaire de contact, login). On l’a vu, j’ai dû intervenir sur un souci de commentaires sur les fichiers joints que j’ai traité de manière un peu brutale.

Je n’abandonne pas l’idée de finir le travail un jour, j’ai surtout la migration vers WordPress 5 à valider et cet éditeur qui est une catastrophe à utiliser au quotidien, me faisant dire que je vais probablement chercher une autre solution, wp-cli permettant de bosser en headless. Serait-ce le moment de bosser en full Markdown, moi qui vais bientôt en faire beaucoup plus souvent ?

La refonte de la VM, euh…

Ouais non pareil, en un an, ça n’a pas bougé d’un iota. Bon alors c’est pas la mort, mais vu le frankenstein en matière de stockage, il va vraiment falloir que j’avise proprement. D’autant que je disais que j’allais finir par l’installer direct sous Buster (Debian 10), qui était encore en développement, ben ça y est ça fait deux mois que c’est sorti 😁 Donc oui, toujours ça a revoir. Ça viendra…

Au moins, avec les vacances en juillet on a pu, avec Arowan, mettre enfin à jour Proxmox, il était toujours en 4.4 (fin de support juillet 2018) et a migré vers la 5.4, une étape nécessaire pour le passage à la version 6 qu’on laisse un peu mûrir. Pas d’article tellement c’est trivial, c’est comme n’importe quelle mise à jour Debian, on change le nom de la distrib dans les dépôts, on fait un gros dist-upgrade, on reboot et voilà. C’est devenu d’un ennui…

La vidéo sur les outils de développement n’a toujours pas été écrite, par contre j’ai capturé une présentation de Robobox, mais j’ai toutes les peines du monde à trouver un logiciel de montage opensource qui soit stable et performant pour monter le tout. J’en viens à me dire que je vais vraiment essayer Blender au final, même si la courbe d’apprentissage semble méchante. Problème également pour la vidéo du montage de la nouvelle « Grosse Bertha« , montage qui sera compliqué par le fait que la caméra s’est coupée en cours de route…

Moi devant Blender pour faire du montage vidéo

La vie du blog, pépère

Je l’avais dit, pas de gros bouleversements dans l’organisation de l’écriture, ça vient comme ça peut, plus ou moins rapide, certains sont écrits au long cours, d’autres torchés en une heure comme celui sur le Courrier du Hacker, avant même de sortir du lit, un vrai bordel. Celui-ci a été démarré au mois d’août dans le RER via l’application mobile, idem pour d’autres qui sont par contre toujours terminés sur pc, plus pratique pour peaufiner la mise en page.

Et donc on a récemment dépassé les 500 billets, tranquille. J’ai failli pas faire attention. J’ai pas cherché à compter le nombre de mots total, mais ça en fait des litres d’encre numérique mine de rien, sans parler du temps passé. Autre stat que je suis régulièrement, Matomo ex piwik qui m’affiche désormais régulièrement plus de 10000 visites par mois. Toujours pas comparé avec les logs nginx, faut vraiment que je me sorte les doigts pour lancer goaccess.

J’avais pas fait gaffe que Genma m’avait dit qu’on déterrerait un skyblog, raté, j’ai toujours fait mes sites moi-même justement pour être indépendant sur le format. Le premier était hébergé sur des pages perso Tiscali, écrit en pur HTML (même pas de CSS, c’était mal supporté par IE 5, donc style inline), tout au Notepad Windows, posé par FTP ((avec FTP Expert, les vrais savent). C’était donc la fête au copier/coller sur toutes les pages, je ne me suis mis au PHP que bien des années plus tard. Ouais ça rajeunit pas, n’empêche que ça fait du bien d’avoir désormais un outil comme WordPress et de pouvoir faire presque tout ce qu’on veut dessus et dessous maintenant, avec moins de pénibilité qu’en full manuel.

Le futur, vraiment ?

Pas de raison d’arrêter à moins d’être mort, par contre on l’a vu faire un plan et m’y tenir, non, c’est pas encore ça. J’aimerais vraiment faire plus de vidéos mais ça prend un temps fou et j’ai toujours pas de fibre optique chez moi (tant qu’il n’y a pas d’autres opérateurs qu’SFR), c’est donc toujours plus pénible à envoyer.

Après y’aura peut être un déclic, un déménagement pourquoi pas parce que mon appartement actuel a quelques défauts que je supporte doucement de moins en moins, Blender ne sera peut être pas aussi difficile à prendre en main, enfin vous avez l’idée. Dans mon entretien sur mes perspectives d’évolution on m’a demandé ce que je comptais faire dans deux ans et dans cinq, sachant que mon objectif précédent ne colle plus du tout avec mon nouveau poste c’est assez marrant de poser la question quand on voit qu’en un an les choses peuvent changer du tout au tout.

Avec ces nouvelles responsabilités je change d’échelle sur les plateformes que je déploie, si y’a des trucs intéressants à en dire comptez sur moi pour vous en partager les bons (ou les mauvais) morceaux 😉

Les challenges quand on vire Windows de son PC de boulot

dimanche 22 septembre 2019 à 10:30

J’ai craqué, à mon retour de vacances, et entendu que je vais être amené à utiliser de moins en moins Skype Business au profit d’autres outils, j’ai entrepris de remplacer le SSD de mon laptop pour installer Manjaro à la place. Ceci est donc mon retour d’expérience sur une bascule pas si calme que ça, et qui pose encore quelques challenges aujourd’hui.

La situation avant la remise à zéro

Je suis donc dans une entreprise dont les outils de communication sont entièrement à la merci de Microsoft, puisque l’on utilise Office365, et que l’on a même un serveur Skype Business pour la passerelle téléphonique (et donc Skype Business sur nos postes). Nos PCs sont fournis avec un Windows 10 professionnel qui n’est pas figé sur sa version (j’ai eu droit à une jolie engueulade à mon arrivée à l’Île Maurice parce que ce connard avait décidé de télécharger la 1903 dès le premier matin–ils n’ont pas la fibre, les pauvres, merci Microsoft de pourrir les collègues), et on nous impose un antivirus dont l’efficacité est toute relative; ce qui n’est pas relatif par contre c’est son impact sur les performances de la machine, c’est désastreux. Étant un administrateur système et applicatifs Linux, j’y ajoute une VM Ubuntu avec 2Go de RAM pour profiter de ses avantages. Ce bordel amène, une fois tous les outils du quotidien démarré, une saturation de mémoire à hauteur de 7,8Go sur 8Go installés, on a même déjà eu des pics à 30Mo de RAM libre. Et même passé à 16Go, la conso grimpe à 11Go, avec les mêmes paramètres. C’est juste n’importe quoi.

Évidemment, tout cet attirail est relié à un serveur Active Directory, qui permet d’avoir un seul compte pour une myriade d’applications, de notre intranet à l’interface de gestion des configurations Chef des serveurs, en passant par le Gitlab et j’en passe. L’AD n’est pas un problème, mais je le mentionne parce qu’il va avoir son importance par la suite.

A mon retour de vacances, mon collègue Pierre-Marie (celui recruté via mon article 🙂 ) m’apprend qu’il a déjà fait le ménage et installé Manjaro (il a d’abord tenté naïvement Debian, mais c’était peine perdue vu l’âge des softwares), principalement parce qu’on en avait déjà discuté ensemble vu que je l’utilise depuis maintenant cinq ans avec différents bureau, le dernier en date étant Cinnamon. Il est d’ailleurs parti sur Cinnamon, et pour le shell, c’est son zsh configuré aux petits oignons au fil des années qui fait son office. Je me suis donc dit que ça pouvait être le bon moment pour enfin récupérer le contrôle de ma machine.

Un inventaire nécessaire des besoins

La deuxième raison est qu’avec mon changement de poste, les besoins logiciels évoluent un peu et permettent d’autant plus la bascule. Mais ce n’est pas pour ça que je revois toute la panoplie de zéro, commençons par vérifier ce que j’utilise déjà  :

Quand je vous ai dit qu’on reposait à mort sur les outils Microsoft, vous êtes pas au bout de vos peines, parce qu’on utilise aussi Yammer pour la communication interne (enfin pas tout le monde, c’est un vrai bordel), certaines équipes utilisent Sharepoint à fond la caisse, et on a donné accès à PowerBI pour les managers afin de compiler les données clients et collaborateurs à partir de l’intranet. Et pour finir, le CRM Microsoft Dynamics pour les commerciaux dont l’ergonomie a du être conçue par un autiste. Pour ceux qui sont encore un peu en vie, je peux les achever en parlant des innombrables clients qui nous demandent, ou pire, qu’on conseille, de déployer leurs applications sur Azure.

Maintenant que j’ai perdu tous les intégristes, revenons sur terre et voyons comment remplacer une partie de tout ça, une partie seulement vous comprendrez vite :

Pour le reste (capture d’écran, calculatrice, les tous petits outils quoi), ça reposera sur l’environnement de bureau cible ou d’autres que j’utilise déjà à la maison. Bon ça, c’est pour l’existant, je vais revenir vite fait dessus, le plugin SIPE est censé permettre de remplacer la plupart des fonctions de Skype Business, mais on le verra c’est pas évident, j’ai installé LibreOffice ET WPS Office parce que le support de certains documents est assez aléatoire (et le premier document que j’ai ouvert pour un projet client s’est soldé par un semi échec dans les deux cas, LO étant le moins pire). Teams for Linux est une version non officielle qui ne fait qu’empaqueter la version web dans une fenêtre Electron, car oui, contrairement à Skype Business MS propose une vraie version Web de Teams; même si je pouvais me contenter de ça, c’est pas toujours pratique notamment sur les notifications.

Et donc, pour le futur, bien que je reprenne tout ça, il me faut aussi Slack, malheureusement, mais ce coup-ci, tant mieux, j’ai un client « natif », dans le sens où c’est aussi une application Electron, ce dont je ne raffole pas particulièrement. Mais bon, on est plus à un détail près, les tissus de la gorge sont entraînés depuis le temps à avaler des couleuvres logicielles.

Les choix, plutôt adaptés en contexte pro

J’ai donc naturellement choisi Manjaro, pas seulement parce que Nicolas en a parlé, c’est plutôt d’ailleurs l’inverse qui s’est produit à savoir que je l’ai inspiré par mes années d’utilisation sans souci majeur (hors crash SSD qui n’a rien à voir avec la distribution). J’ai choisi de revenir à mes premières amours avec le bureau KDE pour l’aspect léché et personnalisable, depuis le temps, la version 5 est devenu particulièrement mature même si les développeurs ne se reposent pas sur leurs lauriers. L’idée est de ne pas me perdre dans une interface trop austère dans laquelle il manquerait trop de choses. Manjaro est en effet grandement basée sur Archlinux, même si elle possède ses propres dépôts, ce qui permet de temporiser sur les mises à jour cassant l’environnement, et on sait que péter son environnement de travail n’est jamais une bonne chose.

Alors que ce n’est pas le cas par défaut sous Windows, j’ai pu cette fois-ci configurer le disque dur pour qu’il soit chiffré à l’installation, et pas que le /home, tout le disque. C’est quelque chose que je ne comprend pas encore en 2019 que ça ne soit pas par défaut et surtout proposé au plus grand nombre (MS propose un chiffrement natif sous Windows, mais seulement pour l’entreprise, le reste du monde peut crever), ceci dit avec les impacts de performance que ça peut avoir, et considérant l’horreur d’antivirus qu’on se tape, pas sur que c’était un choix à faire pour garder une machine utilisable. Mais voilà, c’était l’occasion, c’est fait, ça rend le démarrage moins fluide, mais c’est pas la mort et franchement, contrairement à d’autres mécanismes, cette perte de fluidité est tout à fait acceptable par rapport au gain de sécurité apporté aux données clients et accès plateformes que je peux stocker sur ma machine.

Pour l’instant j’ai toujours pu me reposer sur AUR pour l’installation des softs qui ne sont pas inclus dans les dépôts Manjaro, ce qui me facilite la vie sur ceux qui nécessitent une compilation (car vous savez à quel point je déteste ça). J’ai aussi repris ma machine virtuelle pour pouvoir transférer mon environnement SSH/git/shell. Tout ce que j’ai eu à faire est de changer le chemin du partage de fichier, démarrer, et copier les dossiers/fichiers nécessaires et voilà. Après il m’a fallu trois jours pour vraiment peaufiner tous les détails. Au passage j’ai appris que mes collègues qui ont installé VS Code sous Linux, sans surprise, sont piégés par le binaire Microsoft alors qu’il existe une version réellement open-source aussi bien packagée pour Manjaro que pour Ubuntu.

Plusieurs surprises, bonnes et mauvaises

Commençons avec la consommation mémoire de ouf, pour les mêmes besoins que sous Windows et même avec Slack en plus, je consomme à peine 6 Go, si j’avais pas les builds docker fréquents j’aurais presque honte d’avoir demandé l’upgrade. Le bureau KDE lui-même consomme à peine 700Mo au démarrage, c’est assez hallucinant. En contrepartie Thunderbird consomme plus de mémoire, et pas seulement vive car vu qu’il télécharge l’intégralité de la boite de réception qui contenait 76000+ messages (malgré les filtres), ça bouffe actuellement aux alentours de 10Go alors que le PST d’Outlook dépassait à peine les 4Go (ce que je considérais comme déjà énorme). Ah, oui, en terme de stockage, entre un Windows qui bouffe plus de 30Go à lui tout seul (avec les mises à jour mensuelles qui saturent vite), et 8Go, mon SSD me plaît beaucoup plus.

Toujours dans les bonnes surprises, la mise en veille et sortie sont ultra rapides, mais vraiment, là où Windows pouvait prendre plus d’une minute à s’endormir, c’est dans les 4 secondes pour Manjaro KDE. La réactivité du bureau est vraiment au top, la personnalisation de KDE est toujours aussi bordélique je trouve, mais on finit par mettre la main sur ce tout ce qu’on veut/a besoin ou presque (coucou thème sombre). Le ménage des paquets inutiles a été rapide, l’installation de ceux manquants est impressionnant, yay fait bien le boulot même si j’ai une petite nostalgie pour yaourt qui présentait mieux je trouve.

Pas vraiment un « game-changer » mais ça fait toujours plaisir, openfortigui/openfortivpn fonctionne plus rapidement que sous Windows, sur lequel le client est un enfer. On sent que leur métier ce n’est pas le logiciel. Par contre, pas d’intégration à Network Manager (pour lancer le VPN auto à la connexion au WiFi du bâtiment), car il y a un souci pour demander la clé OTP (pas de popup)…

Une fausse mauvaise surprise, quand on définit la passphrase pour le chiffrement du disque, c’est dans l’environnement live avec le clavier configuré pour votre langue. Mais au démarrage de l’OS, le clavier est encore en Qwerty. J’ai un peu transpiré avant de m’en rendre compte de ça, les caractère spéciaux et les nombres sont à taper différemment ^^’

Un autre irritant qui n’est pas bloquant, c’est un bug de prise en charge des polices Powerline dans Terminator, qui n’existe pas dans Konsole, mais Konsole ne permet pas toutes les possibilités de Terminator. Le reste du temps, je suis repassé sur Yakuake, sans surprise puisque c’est un des éléments qui m’avait fait tomber amoureux de KDE et Manjaro qui l’installe par défaut.

Dans les vrais mauvaises surprises, j’ai de légers problèmes de stabilité quand on retire/pose l’ordi sur le dock à chaud, dock qui permet de passer de l’écran intégré au laptop à deux écrans branchés en DVI et VGA (une prise de chaque :/), ainsi qu’à plusieurs ports USB qui accueillent au quotidien un clavier et une souris. La reconfiguration du bureau parfois pète, pour l’instant, je suis obligé de restart ssdm via une deuxième console, ce qui « tue » la session. Mais globalement ça fonctionne très bien, à part un léger doute au début sur la configuration de l’agencement des écrans, et j’ai un thème sombre, Breeze, qui est agréable à l’œil. Les applis GTK que j’utilise ont naturellement quelques difficultés avec qui sont rarement bloquantes.

Un élément que je n’avais pas pris en compte lors de la réinstallation, c’est la prise en charge des imprimantes. Sous Windows, c’est facile, on lance l’assistant, on cherche l’imprimante avec son nom, on l’ajoute et une minute plus tard on va chercher son document imprimé. Une fois sous Linux la recherche par nom ne fonctionne pas, il faut donc identifier l’adresse IP de l’imprimante directement, sélectionner manuellement le modèle de pilote qui n’est pas toujours évident (et donc identifier le modèle de l’imprimante), mais ça fonctionne. Je recommande un collaborateur équipé de Windows à portée de main pour aller fouiller dans les propriétés de l’imprimante sur son poste. Comme j’avais dû le faire avec l’imprimante de ma mère, dans votre cas si le pilote de l’imprimante est manquant commencez par chercher sur AUR, pas mal de monde crée les packages pour les modèles vendus sur le marché qui ont un pilote mais qui n’est pas inclus (souvent pour des raisons de licence de redistribution).

Dans la même veine, nous utilisons un serveur de stockage de fichiers partagés via CIFS/SMB, et il n’est pas rare que lors des projets on partage des liens vers les documents et/ou dossiers, par mail ou Skype. Sauf qu’évidemment ces liens étant formatés pour l’explorateur Windows, pas de mystère ça ne fonctionne pas, il faut aller dans Dolphin, se connecter manuellement au partage, et refaire le chemin à la main. Sous KDE l’ouverture des fichiers sur des partages réseau demande de les copier en local d’abord, attention donc aux fichiers volumineux, en particulier en télétravail avec une connexion anémique.

Côté son, autant Pulsaudio est devenu particulièrement efficace et fonctionnel, autant parfois ça ne suffit pas. Notamment sur la gestion du casque : pas toujours évident de définir que le casque doit être le périphérique par défaut, pire, il est sans fil avec un dongle, mais se déclare encore sous un autre nom quand on le branche en USB pour la recharge. Il y a une option pour forcer la capture et la restitution du son via un périphérique en particulier, une fois sur trois je suis encore obligé d’y faire appel. C’est mineur, mais tout de même…

Les vrais soucis, énervants

Il y a les mauvaises surprises qui ne sont pas un vrai problème bloquant en soi, et il y a le reste.

Commençons avec Teams for Linux, quand je l’ai installé la version courante fonctionnait pas trop mal, à part un souci de partage d’écran qui ne fonctionnait plus. Deux semaines après, c’est le rafraîchissement de l’application qui débouchait sur une page blanche. Le problème a mis un peu plus d’une semaine à être corrigé et mis à disposition, un workaround a été trouvé plus vite en supprimant un dossier de cache applicatif, pas pratique. Au passage on retrouve le partage d’écran, par contre, quand on veut partager le bureau, c’est soit les deux bureaux en même temps, soit une fenêtre d’application, on ne peut pas sélectionner un seul des deux bureaux. Ce n’est pas lié à KDE car PM a le même souci sur Cinnamon. Et il n’y a pas de solution pour l’instant. La qualité de la capture semble aussi assez aléatoire.

J’ai également eu pour la première fois un bug sale au transfert de mon profil Firefox : il ne stocke plus aucun mot de passe, et aucun mot de passe n’est affiché dans ceux stockés. Pas d’erreur en tentant un mode ligne de commande. J’y collais les identifiants AD que j’ai à saisir régulièrement sur les différentes pages de nos outils et de connexion via SSO presque exclusivement, et c’est pénible de devoir tout retaper à chaque fois. J’avais deux solutions : soit refaire un profil de zéro puisque ça fonctionne dessus, soit changer mon fusil d’épaule et déporter la fonction sur KeepassXC, que je n’avais pas encore pris le pli d’utiliser sous Windows. Ça fonctionne plutôt bien, à part une ou deux pages (comme l’ADFS) où ça glitch un peu à cause des redirections en boucles, à tel point que je pense abandonner le deuxième profil que j’avais commencé à créer pour rester sur ce setup, et désactiver complètement le stockage des mots de passe intégré à Firefox.

Le RDP fonctionne bien, très bien même, sauf pour les messages d’erreur. Je m’explique : pour un projet client on a du se créer un compte sur leur plateforme, compte qui permet ensuite de se connecter à un rebond Windows, via le protocole de Microsoft donc. Hors alors que je sais que le compte est valide, je me fais shooter avec une erreur « impossible de me connecter ». J’ai du demander à mon manager, qui a une machine virtuelle Windows sur son Macbook Pro, qu’il teste la connexion pour voir le vrai message d’erreur, mon compte n’est pas paramétré correctement et n’a pas le droit de se connecter à distance… Je me demande si malheureusement je ne vais pas devoir moi aussi utiliser une VM pour certains besoins, d’autant plus avec l’autre gros pépin.

Ce pépin, c’est le cas le plus problématique : pidgin+SIPE. Le plugin a beau être activement maintenu, c’est un enfer tellement c’est pas stable, ça peut très bien fonctionner au début pour arrêter en cours de route, que ce soit pour la téléphonie ou le reste. Quand un appel sonne, on a une fenêtre popup sans prise de focus ni popup libnotify (contrairement aux messages), ce qui fait qu’on rate très facilement l’appel. Je peux avoir des timeouts sur des appels directs et très bien pouvoir participer à des conférences audio avec partage d’écran (dont le protocole est finalement du RDP, puisqu’il m’ouvre une fenêtre Remmina, amusant de découvrir ça sous Linux). Et ça peut très bien fonctionner le matin et viander l’après-midi (du genre, il vous shoote d’une réunion, et quand on veut rejoindre, dit qu’il ne la trouve plus). C’est pénible parce que soit je me tape l’installation d’une VM Windows comme le fait un collègue, mais 2Go de RAM pour un soft de communication c’est pénible, soit je tente une autre alternative mais qui demande de payer 50€ pour être utilisable, à savoir ce qu’a testé Nico justement, mais la version gratuite limite les appels à 2 minutes, donc inutilisable.

Le cas particulier de la gestion du compte AD

C’est un pénible dont je vais faire mon deuil, mais qui peut expliquer le fait de rester sous Windows avec tous les outils Microsoft : ça s’intègre bien. Par exemple, dans Outlook, si Skype Business est lancé vous voyez instantanément le statut des contacts de l’annuaire. Windows vous prévient quand le mot de passe est sur le point d’expirer (et on change tous les mois, c’est un enfer), et une fois changé, tous les logiciels se mettent à jour seuls pour intégrer ce nouveau mot de passe, sans que vous ayez à vous en soucier. Reste les « applis web » où la mise à jour dans Firefox se fait après coup, au fur et à mesure qu’on se reconnecte dessus. Mais vous êtes rarement bloqués.

Là, deux semaines après l’installation mon mot de passe a expiré sans que je sois prévenu, je me suis fait jeter de tous les softs sans prévenir une heure après être arrivé au boulot, et il a fallu changer à la main partout : Thunderbird, Pidgin, openfortigui, Teams, et évidemment navigateur, qui du coup demande de mettre à jour les pass dans KeepassXC (le plugin propose de le faire directement, c’est plutôt bien foutu quand ça fonctionne). En dehors de se remettre une alerte dans le calendrier, point de salut, je demanderai à l’occasion aux moyens internes en charge si on peut recevoir une notification par mail pour ça.

Verdict : Un bonheur malgré tout

Oui, on a des soucis quand on doit continuer à communiquer avec les services de Microsoft. J’ai peut-être bientôt une solution de contournement moins pénible qu’actuellement, vu que j’ai récupéré un smartphone du boulot pour un besoin particulier (on nous demandait d’installer une application sur notre smartphone perso, ce que je refuse de faire). Mais ça reste un vrai problème de n’avoir qu’un interopérabilité que partielle, alors même que Microsoft se dit désormais fan d’open-source et cherche à se prendre disponible partout. Si globalement ça se passe quand même bien, ce souci de téléphonie est une vraie tâche noire sur un soleil qui éclaire mes journées sous Linux depuis la bascule. Mais je ne regrette pas du tout cette bascule, les lenteurs permanentes liées à Windows et l’antivirus qu’on nous y impose sont vraiment une purge dont je suis content d’être débarrassé. Le fait est que mon laptop pro utilise le même matériel que mon laptop perso, et autant dire que je rageais vraiment de constater la différence entre les deux.

Est-ce que je recommande malgré tout ? Bien que le matériel et les outils de communications soient fournis en full Microsoft, il y a une politique assez « relâche » sur l’utilisation chez LinkByNet (pour l’instant), j’ai donc pu le faire, par contre j’ai du le faire seul. Ce n’est pas nécessairement possible dans toutes les boites (cf Genma qui dans son travail alimentaire a du revenir en arrière). Difficile dès lors de recommander un tel changement qui s’accompagne de challenges assez poussés.

On change le PC de jeu ! (part 4)

vendredi 13 septembre 2019 à 18:30

On arrive à la dernière étape de la sélection et l’achat des composants restants. On avait aussi un dossier en cours sur un transport problématique, et du revirement de situation digne d’un film d’action lambda d’Hollywood. Et comme on a fini, on va pouvoir aussi faire le point sur les finances.

Fin de l’histoire Pick-up

Pour rappel, j’ai publié l’article précédent avec un colis bloqué dans une consigne à l’informatique défaillante. Pas de réponse du support, les jours passent. Le samedi matin, je rappelle une troisième fois, en mode un peu énervé de ne pas avoir de nouvelle, et surtout qu’on ne puisse pas discuter directement avec les gens du service Pick-up (puisque Colissimo avait fait son taf, enfin presque on va y venir), Je vous laisse relire le thread magnifique que j’ai balancé sur Twitter (même si je l’ai gardé en mémoire locale au cas où).

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Sachez que le dénouement a été tout aussi « délicieux » : bizarrement sur Twitter ça me répond, mais dans tous les sens puisque la Poste, Rueducommerce et Pickup ont tous voulu savoir mon numéro de colis pour m’aider. Étant enfin en contact avec quelqu’un du service Pickup, je continue directement avec lui, en remerciant les autres au passage pour leur prise de contact un lundi matin — je m’y attendais sans surprise. Il finit par m’apprendre dans l’après-midi que l’incident avait bien été détecté, et surtout réparé le jeudi après-midi; soit deux jours après. Mais le samedi matin après on savait toujours pas me le dire au téléphone. Bon j’y retourne donc le soir, j’ai bien mon colis, mais en quel état…

Sur le coup je me dis « tiens, le kit de RAM a dû se faire la malle » étant donné la taille des ouvertures, mais non, tout était finalement là, ouf. Et tout est en bon état, presque un miracle quand on voit l’état du carton. Tout est bien qui se finit bien donc, en recontactant le service Pickup évidemment le mec me dit qu’il faut voir avec Colissimo pour l’état du colis, Pickup n’étant que la consigne de dépôt et pas le responsable de transport. La magie du découpage des responsabilités à la française, personne n’est responsable de rien.

Concernant le boîtier, j’avais dit que celui que j’avais visé au départ, à prix plancher de 40€, était trop limitant sur le refroidissement. J’ai donc monté en gamme et sélectionné le Be Quiet Pure Base 600. Il est assez spacieux, fourni avec plusieurs ventilateurs, et semble fournir des capacités d’agencement des câbles assez poussé. Il est également plutôt accueillant pour les ventirads de grosse taille et nécessitant une plaque arrière sur la carte mère, avec une grande ouverture pour les manipuler sans avoir à démonter tout le bousin. Et il coûte le double. Sa livraison aussi m’a provoqué quelques sueurs froides. Passage en Relai Colis ce coup-ci, livré dans un Intermarché à 7kms de chez moi, quand on m’amène le carton, une sacrée trace de chaussure de sécurité sur le côté, avec le carton légèrement plié/enfoncé. Il faut savoir qu’à cet endroit il y a rarement une protection autre que de l’air, il est donc très rapide de rentrer en contact avec la tôle, ou le verre pour ceux qui achètent des vitrines en guise de boîtier PC. Le terminal Relai Colis ne permettant pas d’émettre de réserve directement, je prend en photo sur le comptoir, inscrit une réserve « trace de chaussure » dans la zone de signature, et repart avec. une fois arrivé à la maison, ouf, tout va bien, zéro défaut, on voit que le plastique de protection du boîtier a touché le carton, mais sans impact (ho ho) sur le boîtier. Ouf.

Pour la carte graphique, je lavais dit également la Radeon 5700XT Pulse de Sapphire me faisait tellement de l’œil, que quand j’ai eu une réduction de plus de 25€, j’ai sauté sur l’occasion ! J’ai été surpris de la légèreté et de la compacité de l’ensemble, j’ai déjà eu de vrais tromblons en termes de poids et de bruit (Radeon X1950XT par exemple), c’est plutôt une bonne surprise. Livraison là aussi au même point Relai Colis, dans un état impeccable, on a peine à croire qu’il est passé par plusieurs centres de dispatch et camionnettes de livraison, surtout en comparaison du boîtier arrivé la veille.

Concernant le SSD, j’ai refait un point sur mes besoins actuels, sur les poids des jeux, et finalement, tant pis pour le 1To, je passe du Crucial P1 au Samsung 970 Evo Plus 500Go, la différence de performance est réelle entre le deux. Comme c’est l’avant dernier achat, la réduction que j’ai pu avoir dessus est moindre car l’impatience a joué à fond.

Le plus gros dilemme a finalement été sur le refroidissement CPU. Je cherchais en grande priorité à profiter d’un kit watercooling « all-in-one », à savoir un système déjà monté/rempli, qu’il suffit d’installer (le bloc qui contient la pompe sur le CPU, le radiateur et le ventilo sur le boitier). Mais les prix ont salement augmenté, le H60 que j’ai actuellement sur le Core i7 m’avait coûté à peine 60€, la dernière génération de H60 est monté à pratiquement 80€ (et encore, c’est souvent plus). Les discussions avec les potes sur Telegram m’ont finalement tourné vers le Noctua NH-D15s, avec un seul ventilateur donc, tout aussi cher en neuf, mais dont une offre en déstockage était proposée par Rue du Commerce, il ne m’a coûté que 66€. Un joli 30% de réduction donc, pas dégueu. Le seul point qui me gêne c’est que c’est une bestiole qui pèse son kilogramme, ce qui va nécessairement « tirer » un peu sur la carte mère et donc limiter un peu sa durée de vie.

Je vous le donne en mille, pour le ventirad j’ai eu une alerte de Colissimo me disant qu’ils devaient « renforcer le colis » pour pouvoir le livrer. Je m’attendais au pire, je n’ai pas été déçu pour le carton mais finalement une fois de plus tout est en bon état. On est donc à trois livraisons problématiques sur cinq, un bilan peu glorieux.

Les petits oublis

Eh oui, à être trop confiant dans sa checklist, et à se concentrer sur certaines choses, on rate quelques petits détails. Le premier, c’est que je ne refais que la tour, ce qui veut dire que je récupère mes écrans. Hors la carte graphique n’a que des prises DisplayPort et une HDMI, mais mon second écran, mon vénérable LG IPS226V, fonctionne en DVI. Il me faut donc un adaptateur. Les premières recherches m’orientent vers des produits certes abordables, mais dont le montant des frais de port sont finalement rédhibitoires, ça fait des augmentations de 50%, non merci.

Je n’ai pas non plus réussi à remettre la main sur ma seringue de pâte thermique, ni de la spatule qui l’accompagne. j’ai donc ressorti ma commande de l’époque, il y a deux ans, sur Amazon, le prix a augmenté de 4€ là aussi, un constat généralisé sur plusieurs références de pâtes chez plusieurs fabricants. En cherchant un adaptateur sur Amazon, je trouve mon bonheur, il est limité au 1080p ça tombe bien c’est la résolution de l’écran, et ceux qui se plaignent dans les commentaires du manque de support du 144hz sur un tel modèle ne m’intéressent pas puisque de toute façon c’est un écran secondaire qui sait déjà tout juste tenir les 60. Au départ, vu que j’ai trois prises DisplayPort, je m’étais dit que je chercherais un adaptateur DipsplayPort-> DVI, mais ceux-ci sont plus chers, et surtout, moins portables, dans le sens où il ne pourra pas être utilisé sur un laptop par exemple qui est plus souvent fourni en prise HDMI qu’en DP.

Les deux éléments en question m’auront coûté une vingtaine d’euros, frais de ports offerts avec Amazon Prime.

Le bilan

Avant d’aborder les prix, maintenant que tout est terminé (en dehors du montage), revenons vite fait sur ce que je comptais faire au début, et ce qui est finalement arrivé. En dehors du petit accroc de l’adaptateur et de la pâte thermique, j’ai entièrement évité Amazon pour les achats de composants, et pourtant, parfois les différences de prix étaient assez importantes par rapport aux autres boutiques, sans même parler du sujet des livraisons que j’aborde juste après. Si je suis plutôt content de moi, par contre, j’ai fait l’amer constat du rétrécissement de l’offre des boutiques françaises, avec un materiel.net dont je ne comprend plus l’existence vu l’absence totale d’intérêt conséquent du rachat par un LDLC dont les tarifs sont eux aussi devenus souvent rédhibitoires. Quand je regarde mon tableau c’est finalement Rue du Commerce et TopAchat qui ont tout fourni, c’est donc le groupe Carrefour le grand gagnant de cette affaire. On évite plus les gros groupes qui gavent leurs actionnaires plutôt que leurs salariés…

Une des plus grosses conséquences de ce choix de boutiques, c’est le montant des frais de ports des différentes commandes. Certes, il aurait peut-être été possible de les limiter en groupant plus les commandes, mais malgré tout, ceux-ci m’auront coûté pas loin de 25€, sans parler des allers-retours dans le vide à la gare pour le colis coincé. Et encore, 25€, le kit cpu/ram/mb et la carte graphique ne m’ont rien coûté, car de temps en temps, plutôt qu’une promo sur les composants les boutiques vous offrent les frais de ports, j’en ai donc profité en partie. Mais la facture aurait pu être plus élevée, sans parler que les accrocs sur certains des colis auraient pu nécessiter un retour, et donc coûter plus cher (en temps et/ou en argent).

J’ai par contre tenu sur ma volonté de faire vivre la concurrence des fabricants de composants, et monter, pour la première fois depuis très longtemps, une configuration full AMD. La dernière remontait au Phenom 2 X4 955 Black edition et la Radeon HD 4850 Golden Sample qui auront bien rendu leurs services (vérification faite c’était il y a onze ans…). J’ai également réussi à éviter tout le bordel autour du RGB, ma tour n’est pas une boite de nuit et je ne compte pas l’exposer comme un Jacky. Si jamais elle doit rester allumée la nuit, vu que je dors dans la même pièce elle doit être la plus discrète possible, et c’est aussi un des challenges autour du refroidissement, j’espère donc que mes choix auront été judicieux.

Voici donc le tableau récap’ des prix « hors promos », relevés au moment des achats, et hors frais de livraison :

Boitier Boitier ATX BE QUIET Pure Base 600 Black 79,8
Alimentation Seasonic Focus Plus 650 Gold 99,9
Carte mère ASUS TUF B450-PLUS GAMING 109,9
CPU AMD Ryzen 5 3600 229,9
RAM Crucial BALLISTIX – SPORT LT GRIS 16 Go Kit 8 Gox2, 3000Mhz CL15 SR 84,9
GPU Sapphire Radeon X5700XT Pulse 8G 449
SSD Samsung 970 EVO Plus 500Go 124,99
Ventirad Noctua NH-D15s 89,95
Total brut 1268,34

Pas mal vu la projection qu’on avait faite au départ, Mieux encore, quand on regarde les prix appliqués aux commandes, avec réductions donc, voici le résultat :

Rad 66,99
SSD 119,99
Boitier 75,1
GPU 422,91
Alimentation 85,4
Kit CP + CM + RAM 389,9
Total réducs 1160,29

J’avais dit quoi concernant le budget déjà ?

Entre le boîtier et le watercooling qui seront tous deux plus chers que prévu, on arrivera peut-être à 1166€

Alors je suis pas le plus grand oracle de la planète, mais pour une fois je me suis pas mal démerdé 🙂 Certes, quand on ajoute les frais de ports et les compléments on arrive à 1203,22€ (pour être très précis), je prend ceci dit le pari de faire le montage moi-même, je fais aussi l’économie d’une licence Windows 10 (j’en ai déjà parlé, ça change pas). Si vous n’êtes pas aussi averti que moi, vous pouvez vous tourner vers des configurations clés en main des boutiques en ligne, certaines sont dans un budget proche, moyennant le surcoût du montage, mais pour l’instant je n’en ai pas vu de full AMD, il y a toujours un Nvidia RTX ou un CPU Intel qui traîne pour plomber la facture, ou pire, on voit encore des SSD 240Go. Si jamais vous voulez installer plus de deux jeux en même temps, avec des tailles qui dépassent allègrement les 60Go, c’est tendu. Mais avec ce setup, vous êtes parés pour du jeu en full HD toutes options activées, voire du QHD toutes options aussi en fonction des jeux, et les résultats montrent qu’on peut pousser en 4K, ce qui est ma cible, moyennant quelques concessions dans certains cas. Autant dire que je suis tranquille pour quelques années de plus.

Voilà, on arrive au terme de cette aventure. Quoi ? Des photos ? Le montage ? Voici une petite photo pour vous montrer l’ensemble des composants, pour le montage, ça sera une vidéo dans un épisode bonus 😛

On change le PC de jeu ! (part 3)

dimanche 1 septembre 2019 à 10:30

L’été est passé, et comme je le soupçonnais, mon manque d’argent me rend finalement service. Il y a eu pas mal de mouvements, et des bonnes nouvelles, des bonnes et des mauvaises surprises. Et les premiers achats.

Pci express 4, bios, boot kit, c’est la foire

Dans quel ordre évoquer tout le fatras ? Commençons par le « bootkit ». Pour ceux qui ne connaissent pas encore ce système, il faut savoir que même si le fabricant d’une carte mère propose des mises à jour pour supporter les nouveaux CPUs, celles déjà en vente ne sont pas nécessairement mises à jour. Certains commerçants acceptent de le faire pour vous, mais si vous n’êtes pas dans ce cas-là, AMD ne voulait pas proposer de solution; problème si le CPU est pas supporté pas moyen de démarrer même pour mettre à jour. AMD a fini par faire marche arrière et fournira en prêt un Athlon 200GE pour permettre de démarrer la carte mère, mettre le bios à jour et enfin installer votre monstre de guerre. Ceci dit certains vendeurs annoncent faire la mise à jour avant de vous livrer, ce qui se traduit généralement par un petit pécule, environ 10€ l’opération.

Sur le support du PCI Express 4, AMD persiste et veut désactiver le support sur les cartes mères X470 et B450. Ça n’empêche pourtant pas certains fabricants d’annoncer le support, parfois de manière erratique comme chez Asus où certains modèles haut de gamme ne supportent pas alors que d’autres plus modestes s’en sortent. On a aussi des fabricants qui ont un problème avec la taille des bios, MSI qui a voulu faire des économies de bout de chandelle à des soucis avec ses puces EEPROM en 16Mo, il se dit contraint d’utiliser une interface lite qui s’avère plus efficace que la sienne, un comble. J’ai fini par faire ma croix du support PCI-Express 4, pour l’instant même sur des jeux 4K ça change pratiquement rien donc on peut économiser gros.

Des cartes graphiques qui se font attendre

Je ne parle pas des Founders Edition, c’est à dire le design de référence AMD que les fabricants on repris en changeant juste la couleur du ventirad, ventirad qui pour rappel est une honte de nuisance sonore en 2019 quand on voit ce que fait Nvidia en face. Les annonces des modèles custom ont mis du temps à arriver, difficile pour l’instant de s’arrêter sur un choix, on voit les prix qui sont finalement contenus et donc très intéressants, ce qui me fait dire que je pourrais me laisser séduire par une RX 5700 XT plutôt que sa petite sœur, plus pérenne comme choix. Dans le même temps AMD a annoncé la fin justement des Founders Edition, c’est un positionnement plutôt étrange mais bon, contrairement aux modèles « FE » d’Nvidia on ne regrettera pas ce ventirad. Bon, fin Août les premiers modèles custom sont dispos, un peu par intermittence, mettent un peu de temps à être référencés chez les revendeurs, mais ça progresse, et ça promet.

Mais il y a un autre élément qui rentre en compte et qui est intéressant à plus d’un titre.

Des prix qui ont déjà fondus (et autres surprises)

En effet, les CPUs Ryzen 3000 ont déjà subi un petit dégraissage, mais là plus grosse surprise fut sur les cartes graphiques. En effet, AMD était tellement sûr de sa stratégie et des performances de ses puces qu’après l’annonce des RTX Super chez Nvidia, il a baissé les tarifs des cartes fraîchement sorties, de presque 40€ quand même, suffisant pour désarmer l’effet. Mieux encore, ce n’est pas un problème pour AMD qui a reconnu que c’était prévu, que ça ne les impactera pas financièrement et que le prix affiché aujourd’hui correspond tout à fait à ce qu’il cherchait comme positionnement. Brillant ou pas, le fait de voir enfin de nouveau de la concurrence a du bon pour nous, on ne va donc pas s’en plaindre. Mieux, avec l’approche des customs et des tarifs annoncés, il y a encore des baisse, la tentation évoquée un peu plus tôt est donc renforcée, j’y succomberais volontiers.

Une autre surprise concerne les tarifs des mémoires vives. Après deux annonces contradictoires sur les tendances, l’une à la hausse à cause d’un problème au Japon, l’autre à la baisse qui table sur la multiplication des sites de production, pour l’instant je sens plus cette deuxième option puisque j’ai eu l’occasion de comparer le prix de la barrette de mon microserveur entre son achat et maintenant et ça a été divisé par deux. C’est moins le cas pour les ddr4 à cause de la demande avec les nouvelles plateformes AMD, mais on voit quand même un léger fléchissement. Après avoir lu cet article sur l’influence des hautes fréquences, il se pourrait que je revois à la hausse le kit que j’avais choisi. Ou alors je garde la fréquence actuelle, et avec le prix je revise un 32Go comme j’ai actuellement.

La dernière surprise que je n’avais pas pris en compte concerne le fait que j’ai rempli mes objectifs du premier semestre. Et un où j’ai sur-performé ce qui fait que j’ai un joli pécule pour démarrer les achats sans me plomber le budget (je n’inclue jamais les primes dedans, pour une raison évidente : les primes, c’est exceptionnel et jamais garanti, compter dessus n’est jamais une bonne idée). Y’a eu aussi la prime vacances, eh oui pas de treizième mois mais une autre compensation, bienvenue donc 🙂

Les premiers achats, quelques retouches sur la sélection

J’ai voulu commencer par le boîtier, l’alimentation, des éléments qui ne bougent pas beaucoup et dont les éventuelles promos ne sont pas très intéressantes. Je voulais me retenir d’acheter le CPU et la carte mère tout de suite, on l’a vu ça a bougé pas mal, j’ai encore quelques appréhensions sur la stabilité de l’ensemble. AMD a même déjà retouché la gestion des fréquences, pour améliorer la consommation d’énergie, et permis aussi une meilleure gestion du boost, ce qui est important pour lui dans les jeux notamment, qui va être ma cible première.

Concernant l’achat des composants, j’ai fait quelques changements, notamment sur l’alim où j’ai profité d’une vente flash pour me payer une jolie Seasonic Focus+ Gold 650W. Bon les frais de port ont grandement annulé l’avantage de la vente flash, merci La Poste. J’ai fait l’erreur de me faire livrer au boulot sans penser à prendre un sac de transport, le sac à dos était au bord de la rupture 😀 Je vous réserve la présentation pour l’épisode du montage. Quant au boîtier, celui sélectionné, à prix très contenu, est resté longtemps indisponible. En regardant les photos de nouveau, je me rend compte qu’il va être beaucoup trop limitant sur la partie refroidissement, je vais donc revoir ma copie. Ce qui coûtera inévitablement plus cher.

J’ai également finalement profité, grâce à la prime vacances qui ne servira pas aux vacances, d’un kit d’upgrade Ryzen 5 3600 (non X, qui n’a pas d’intérêt vu la surconso pour pas beaucoup plus de perfs) + Carte mère ASUS TUF B450 Gaming avec mise à jour BIOS (donc PCI-Express 3) + 16Go de RAM DDR4-3000 CL15 pour 390€, une jolie économie donc. Une affaire rocambolesque pour avoir ce kit, jugez plutôt : je le surveille sur TopAchat, essaie de profiter d’une petite réduction qui rend le kit encore plus intéressant (419€ à l’origine, la promo le fait baisser à 399€), je cherche à le payer en 4x, Carrefour Banque refuse le paiement deux fois d’affilée, sans message aussi bien pour moi que pour TopAchat qui via Tweeter me confirme qu’ils n’ont pas d’autres informations que « paiement refusé ». Et manifestement ils ne savent pas obtenir plus d’infos, plutôt étonnant vu que tout ce petit monde fait partie du même groupe (Carrefour). J’attends donc la fin du mois pour juger du budget et voir si je peux acheter en oneshot. Au moment de me décider, le kit n’est plus en vente ! Et après vérification sur LDLC, pareil, les kits upgrade Ryzen 3000 + carte mère B450 ont disparu. Bizarre que ça se passe en même temps, on dirait une mise aux ordres d’AMD pour continuer de forcer l’achat de leur plateforme trop chère. Par curiosité, je vérifie sur Rue du Commerce, « maison mère » de TopAchat, le kit est présent encore là-bas, pour 390€, donc encore moins cher, forcément je fonce ! Mieux encore, alors que j’ai fait la bêtise de me faire livrer l’alim au boulot, Rue du Commerce propose la livraison en point relai « Pickup », dont un qui est à la gare à côté de chez moi, plus de galère dans le RER \o/

Bon pas de bol, j’ai eu un souci avec ce service Pickup, les codes reçus par mail n’étaient pas reconnus à la borne. J’ai donc contacté le service Colissimo (qui a le bon goût d’avoir un numéro non surtaxé), qui m’a indiqué transmettre la demande pour recevoir de nouveaux codes valides, si possible avant le 31 Août que la commande ne reparte pas chez RdC. Comment dire que ça ne s’est pas bien passé ?

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Un budget tout à fait maîtrisé

Pour avoir donc l’alim, la carte mère, le CPU, la RAM on est déjà à 500€. Il reste le boîtier pour lequel je compte tester une boutique à Dieppe à l’occasion d’un week-end chez ma mère pour voir s’ils ont quelque chose d’intéressant, la carte graphique dont la Sapphire RX5700XT Pulse me fait grandement de l’œil (spoiler, entre temps via une autre promo elle a été commandée, on en reparlera), et un SSD NVMe évidemment pour finaliser le premier shot. Même si je pourrais m’en passer j’aimerai quand même trouver un kit Watercooling CPU digne de ce nom qui ne coûte pas une couille, ou un aircooling pourquoi pas, mais ça doit quand même pouvoir évacuer la chaleur en silence. Histoire de pas avoir besoin de redémonter le bousin une fois qu’on a tout installé.

En tout cas pour l’instant j’arrive à éviter Amazon, cool mais au prix de frais de port non négligeable (j’en ferai le total à la fin), on voit par contre que je ne vais ni sur materiel.net, ni finalement sur LDLC.com, les différences de tarif sont trop grandes en leur défaveur (sachant que le premier a été racheté par le deuxième et que ça a entraîné une augmentation des prix et un appauvrissement du catalogue, rien de surprenant). Dommage, quand je pense que je suis client depuis 2004, il n’y a plus rien d’intéressant chez eux ou presque. Au niveau du budget, comme je l’avais annoncé dans le premier billet, promos et légères concessions permettent actuellement de projeter un tarif global de 1066€, soit presque 300€ de moins, car on était sur une base de 1370€. Entre le boîtier et le watercooling qui seront tous deux plus chers que prévu, on arrivera peut-être à 1166€, soit 200€ de moins que le tableau de base, comme quoi j’avais pas dit que des conneries 🙂

Je voulais faire une photo des composants en mode « bave » mais à part l’alim, les autres sont toujours coincés dans cette putain de consigne Pickup…

Se former ? Pratiquer surtout !

lundi 19 août 2019 à 18:30

Aujourd’hui j’aimerai partager avec vous un retour d’expérience sur un projet que j’ai du mener au boulot, sur les limites des formations, mon ressenti en tant qu’autodidacte qui a passé sa vie à se former dans son coin. Et si je peux glisser un ou deux conseils au passage, je vais pas m’en priver 🙂

Le projet en question qui m’a mené au questionnement de ce jour, c’est une migration de sites web php/mysql (différents CMS) installés sur des machines virtuelles, vers un cluster Kubernetes via le service Microsoft Azure Kubernetes. Pour ceux qui ne sont pas encore à jour, Kubernetes, je le décrirai comme une plateforme d’orchestration de containers Docker qui amène pas mal de concepts supplémentaires (par exemple on ne parle pas de container mais de pod), qui est pensé pour un déploiement industriel, et facilement proposé par les gros fournisseurs d’hébergements dit cloud, avec des plugins pour relier certains éléments à leur propre architecture.

On a donc dans la balance, des CMS que je ne maîtrise pas forcément (Magento, Typo3, par chance y’a aussi du WordPress), un fournisseur Cloud avec lequel je n’ai pas encore réellement travaillé, et un orchestrateur que je n’ai là aussi jamais touché en prod ni chez moi. Le tout sans support d’agences web, et sans support par le client car il n’a pas les compétences internes et les contrats avec les agences web ont été décapités à l’occasion de rachats par une entité étrangère qui pilote du coup à la place des équipes locales pas mal de choses.

Commençons par le fournisseur cloud. J’ai fait un seul WorkShop sur Azure, avec un ingénieur terrain de Microsoft, qui nous a parlé pendant 4 jours de technologies Windows. Les rares déploiements que l’on a effectués étaient en mode manuel, pour de la simple machine virtuelle, donc pas vraiment adapté. Et surtout, par la suite, je n’ai pas eu à travailler sur du déploiement Azure, juste de la gestion au quotidien sur des instances virtuelles Linux classiques. Autant dire que mes connaissances sur la plateforme Cloud étaient minimes, mais vraiment…

Pour les sites, je vais évacuer tout de suite, le code ce n’est pas mon métier à la base, au mieux j’ai une expérience que je qualifierai de solide désormais pour analyser le fonctionnement de PHP, avec naturellement un bagage un peu plus fourni sur WordPress et Drupal, donc pas un problème, même si on le verra ça ne suffit pas toujours.

Pour Kubernetes, la seule approche que j’en avais eu jusque là c’était un « atelier » de deux jours par un collègue de boulot avec qui j’adore discuter (j’ai pris grosso modo deux mois de cours avec lui en une heure d’investigation MySQL un soir, encore merci Julien 🙂 ), un workshop sur OpenShift. OpenShift repose sur Kubernetes, qui repose lui-même sur Docker, mais la solution de RedHat amène des contraintes notamment de sécurité supplémentaires, et du routing entrant qui lui sont propres et donc pas applicables ailleurs. Là aussi, à peine le workshop terminé, aucune utilisation en production sur mon pôle client et aucun projet en vue dans l’immédiat. Je l’ai surtout fait parce que je voulais compléter ce que je connaissais déjà de Docker, mais au final…

On en arrive au fameux projet, que j’ai attaqué en revenant de mon arrêt prolongé pour cause de pied cassé, on me colle le cluster Kubernetes fraîchement déployé dans les pattes, les accès au serveur vmware du client qui héberge ses machines virtuelles avec les différents sites à l’intérieur, et roulez jeunesse. A moi de définir la méthodologie, faire l’inventaire des besoins, gérer la conteneurisation des sites, etc. Pas le meilleur cadrage du monde on en conviendra.

Et là, plus d’un an voire deux après le Workshop Azure, et plus de six mois après celui d’OpenShift, eh bien, sans avoir pratiqué, j’ai du reprendre tout de zéro. Le résultat, j’y suis arrivé mais dans la douleur, avec pas mal de surprises, de tentatives, de recherches longues et pas toujours fructueuses, de déceptions et de victoires parfois surprises. Plus ou moins dans l’ordre :

Je passerai sur les erreurs liées au déploiement lui-même du cluster, qu’on a fait à la main dans la mauvaise région par rapport au vnet qu’on avait paramétré, ce qui complexifie la gestion du réseau des déploiements annexes. On a passé pas mal de temps à tenter de récupérer une définition de terraform qui colle à ce qu’on avait déjà en important les ressources depuis azure. Je disais de pratiquer, ah ben là j’ai mangé, et pas qu’un peu ! Surtout que le template se charge aussi de configurer le monitoring datadog et le backup velero (pratique si pour une raison ou une autre on doit redéployer le cluster de zéro, au hasard pour récupérer un réseau potable).

100 fois sur le métier…

Dans tous les cas, le problème de fond reste le même. Vous pouvez faire autant de formations que vous voulez, si vous ne pratiquez pas derrière, vous ne risquez pas de retenir vraiment les choses, au mieux vous garderez les concepts mais vous devrez passer beaucoup plus de temps à retrouver vos petits. Quand j’ai monté mon cluster docker swarm à la maison, c’est parce que je savais qu’au boulot, je ne ferai pas assez de Docker au quotidien pour en garder l’habitude et les réflexes. Un collègue ingénieur qui va devoir aussi bosser sur du K8S pour un client a installé un cluster de test chez lui pour en comprendre les rouages, et je me pose aussi la question désormais (bien que les priorités soient ailleurs en ce moment).

L’idéal pour ça, c’est d’avoir un ou plusieurs projets persos pour mieux s’approprier les technologies. J’ai codé la première version de collect en PHP/MySQL parce que je voulais apprendre sur ces deux technologies. Ce n’est pas allé très loin certes, mais ça m’a donné les clés de base pour être à l’aise par la suite quand il s’agit à la fois de les installer, de les opérer, de les approfondir, de les analyser quand ça ne fonctionne pas bien, de réparer si c’est cassé. Une sorte de gros premier pied à l’étrier si on veut. Si j’utilise un NAS ASUStor désormais, j’avais tout de même commencé par assembler une machine maison, avec plusieurs disques, ce qui m’a permis de comprendre assez profondément les notions de RAID (que je vous avais partagé d’ailleurs). Et je pourrais continuer comme ça sur pas mal de technos que j’ai fini par connaître.

Je ne suis pas le seul : Genma cherchait à s’auto-héberger, son installation sous Yunohost et sa volonté de contribution au projet font qu’il a acquis une connaissance certaines sur les différentes technologies qui lui servent de base, alors qu’il en savait très peu auparavant. Autant de bagage qui lui servent encore aujourd’hui. Reste qu’il n’a pas eu l’occasion de faire du test pour son nouveau rôle de papa, car monter un labo c’est moins évident 😛

En clair, le maitre mot pour s’assurer qu’on va retenir un max de choses d’une formation, c’est de s’en servir derrière régulièrement, que ce soit pour les clients ou pour soi-même. Et ce, quelque soit le domaine en question.

La nécessité d’une veille et d’une pratique constante

Une des caractéristiques qui me plaît beaucoup dans le métier que je fais, c’est qu’il est en situation de mouvement permanent. Ce qui veut dire qu’on doit apprendre en permanence de nouveaux concepts, de nouvelles choses, y compris sur des logiciels connus qui évoluent avec le temps. On ne peut évidemment pas tout connaître, tout tester, mais se tenir informé des évolutions est nécessaire, ne serait-ce que pour garder en tête les grandes lignes, grâce à ça, lorsque vous aurez à répondre à un nouveau besoin, vous aurez déjà en tête une ou plusieurs possibilités de réponse, que vous aurez moins peur d’appréhender.

Ma méthode préférée pour ça, ce sont les flux RSS des différentes sources que j’utilise. Si vous ne savez pas encore ce que c’est, c’est que vous ne me lisez pas depuis assez longtemps, parce que je vous avais déjà présenté cette technologie il y a quelques années (elle n’a d’ailleurs pratiquement pas bougé depuis). La liste de mes flux bouge avec le temps, les sites qui ferment, d’autres qui sont tout simplement inactifs, d’autres qui s’ouvrent, ou certaines priorités qui changent. Au final je passe toujours autant de temps à lire les infos chaque jour. Par contre, je sais que je ne pratique pas autant que je le devrais, en partie grâce à une flemme légendaire que j’ai moi-même illustrée par ma bio Twitter : procrastinateur de l’extrême. Un exemple qu’évidemment je ne vous invite pas à suivre 🙂