PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Quelques astuces diverses, onzième

lundi 19 février 2018 à 18:30

J’ai stocké tout ça un peu trop longtemps et il est temps que je partage une nouvelle fournée de bricoles qui vous sauve une journée de boulot, ou un weekend un peu trop accaparé par des soucis ou des maintenances d’infras persos, quand ce n’est pas un dépannage lors d’un PSL 🙂

Coreutils 8.24 et suivants : dd qui cause !

J’ai découvert ça en toute fin d’année, après la finalisation du dernier épisode (et Pierre m’en a reparlé début février quand je suis retourné à la Cité des Sciences). Avec un coreutils récent (Debian Stretch, Ubuntu 16.04, Manjaro/Arch), dd a maintenant un mode verbeux pour dire où il en est, et ça c’est cool :

[seboss666@seboss666-ltp ~/Téléchargements ]$ dd if=manjaro-cinnamon-17.0.6-stable-x86_64.iso of=mcin.iso status=progress
1770226176 bytes (1,8 GB, 1,6 GiB) copied, 14 s, 126 MB/s

Pratique quand on sait que les copies sur clé USB peuvent parfois prendre de longues minutes, surtout avec une clé USB poussive.

Rot13 « quick and dirty » en bash

Lors d’un petit délire sur un challenge de sécurité informatique, l’auteur a trouvé le moyen de s’amuser en ajoutant une petite étape à base de rot13. Quand on est pressé, qu’on a pas forcément le temps de chercher un outil tout fait, y’a moyen de le faire en bash (attention, tr est fourni avec coreutils, merci Exagone313) :

echo 'messagealacon' | tr '[A-Za-z]' '[N-ZA-Mn-za-m]'

Connexion SFTP avec un client OpenSSH récent et proftpd/mod_sftp

Récemment, le prestataire d’un client rencontrait des difficultés pour se connecter en SFTP à la plateforme de ce dernier. Après vérification, et un énième juron quand aux satanés fanatiques des ordinateurs fruités, il s’avère que le souci venait de proftpd qu’on utilise pour proposer justement la connectivité chiffrée. La solution tient à la modification des Digests :

SFTPDigests hmac-md5 hmac-sha1 hmac-sha2-256 hmac-sha2-512 hmac-ripemd160 hmac-sha1-96

Exporter les utilisateurs d’un vieux MySQL pour l’importer dans MySQL 5.7

Situation : on me demande de migrer d’un MySQL 5.5 vers MySQL 5.7. Oracle ne supporte que les upgrades de point à point, donc il me faudrait passer par MySQL 5.6. Pas ouf, et comme les bases de ce serveur de dev ne sont pas compliquées, je veux passer par des dumps bases et users à importer ensuite. Problème, Sur les dernières révisions de MySQL 5.7, la création d’utilisateur avec la syntaxe GRANT ... TO <user> IDENTIFIED BY ... ne fonctionne plus. Petite routine maison pour contourner ce problème :

MYSQL_CONN="-uroot -ppassword"
mysql ${MYSQL_CONN} --skip-column-names -A -e "SELECT CONCAT('SHOW GRANTS FOR ''',user,'''@''',host,''';') AS query FROM mysql.user WHERE user NOT IN ('root','pma','phpmyadmin','debian-sys-maint')" | mysql ${MYSQL_CONN} --skip-column-names -A | sed 's/$/;/g' > MySQLUserGrants.sql
sed -i.bak 's/GRANT USAGE ON \*\.\* TO/CREATE USER/g' MySQLUserGrants.sql

Et paf, ça fait des Chocapic.

Tunnel SSH en ligne de commande pour connexion MySQL distante

Pour chiffrer une connexion MySQL (qui est en clair par défaut, il faut le souligner), vous avez deux solutions principalement : mettre en place du TLS au niveau de MySQL, mais c’est pas évident, ou, pour du one shot, un tunnel SSH. Sous linux, rapidement :

ssh -L 3306:127.0.0.1:3306 user@server_with_mysql

Il suffit ensuite de se connecter avec le client mysql en tapant sur son port local :

mysql -h 127.0.0.1 -S 3306 -uuser -p

HTTPS, SNI, et Curl sont dans un bateau…

En procédant à des tests sur la bonne installation d’un certificat X509 sur un vhost dont le domaine ne pointe pas encore sur le serveur en question, plutôt que de bricoler du fichier hosts, j’ai préféré utiliser curl, mais il était récalcitrant avec les paramètres « habituels » :

root@vox:~# curl -Iv -H "Host: blog.seboss666.info" https://127.0.0.1
* Rebuilt URL to: https://127.0.0.1/
* Hostname was NOT found in DNS cache
* Trying 127.0.0.1...
* Connected to 127.0.0.1 (127.0.0.1) port 443 (#0)
(...)
curl: (51) SSL: certificate subject name 'xxxx.mariz.ovh' does not match target host name '127.0.0.1'

Pas grand chose à voir avec mon vhost. En fait, c’est parce que de cette manière, Curl n’envoie pas d’entête SNI pour indiquer le nom qui doit être validé par le certificat, et dans un contexte avec plusieurs vhosts, cet entête permet de chercher à sélectionner le bon certificat en fonction de l’hôte. Curl sait le faire :

root@vox:~# curl -Iv --resolve blog.seboss666.info:443:127.0.0.1 https://blog.seboss666.info
* Added blog.seboss666.info:443:127.0.0.1 to DNS cache
* Rebuilt URL to: https://blog.seboss666.info/
* Hostname was found in DNS cache
* Trying 127.0.0.1...
* Connected to blog.seboss666.info (127.0.0.1) port 443 (#0)
(...)
HTTP/1.1 200 OK

Il ne lui manque que la fonction café en fait à curl…

Une meilleure détection de l’état de santé d’un backend dans haproxy

Contexte : par défaut, les checks basiques d’haproxy ne servent qu’à détecter s’il y a toujours un port en écoute au niveau des serveurs de la ferme. Si vous avez deux serveurs et que l’un des deux est à moitié pété (ça écoute toujours mais l’application ne répond plus), vous avez une réponse sur deux qui n’est pas bonne. Pour optimiser ça, on peut faire un peu mieux au niveau de la configuration :

backend mon-backend
    option httpchk GET /check HTTP/1.1rnHost: www.mondomaine.com
    http-check expect status 200
    default-server inter 3s fall 3 rise 2
    server srv1 10.0.0.1: 80 check
    server srv2 10.0.0.2: 80 check

Au passage on voit aussi comment modifier les intervalles de vérification pour réellement limiter la visibilité du problème et des dégâts que ça pourrait provoquer.

Curl et Docker : tester un service Swarm en local

J’ai eu le tour sur mon propre cluster ainsi que sur les plateformes de tests fournies lors de ma formation par Treeptik. Une fois mon service déployé, j’essaie de le tester avec curl depuis le nœud où il est déployé, mais ça répond pas. En fait, les deux environnements en question sont paramétrés avec une ipv6, mais le service au sein de docker n’écoute qu’en v4, et ça aussi, curl est capable de s’en accommoder :

curl -4 http://127.0.0.1:8080/

Si vous devez tester/forcer en ipv6, utilisez -6, mais dans mon cas ça ne fonctionnait pas.

Terminator en plein écran dès le lancement

C’est un problème récurrent/chiant que j’ai souvent, le gestionnaire de fenêtres n’enregistre pas les positions des fenêtres quand je les ferme, si bien que je dois les repositionner à chaque lancement (il n’ya guère que Thunderbird qui « tient le coup »). Pour ma machine virtuelle Linux du boulot (et maintenant sur ma grosse bertha à la maison), je lance principalement Terminator, et j’aime bien du coup qu’il prenne toute la place. Après quelques errements liés notamment au fait que je ne connais apparemment pas assez l’anglais, j’ai trouvé la solution en modifiant la commande dans le raccourci :

terminator --maximise

Oui, je m’attendais à devoir utiliser --maximize, et apparemment les deux orthographes sont correctes


Et bien que j’attende généralement une dizaine d’astuces avant de publier, ça fait trop longtemps donc tant pis s’il n’y en a que 9. On essaiera de revenir dans les clous au prochain épisode 🙂

Vous connaissez Générations Cobayes ?

dimanche 11 février 2018 à 10:30

Non, ce n’est pas le nom du dernier groupe musical kleenex qui n’existe que pour faire des reprises de chansons dont tout le monde se foutait déjà, mais celui d’une association cherchant à activer les méninges et les pratiques autour d’une réflexion sur la toxicité de nos produits du quotidien. Et comme je sais que ça intéresse certaines/certains d’entre vous, je vais en causer un peu plus.

C’est autour du traditionnel pain au chocolat du lundi matin chez LinkByNet que j’ai réellement découvert l’association et une partie de l’équipe qui la compose (dont une collègue, coucou Anne). J’avais bien vu passer un mail nous expliquant qu’on allait héberger l’association pendant quelques mois (c’est pas la première association qui passe dans nos locaux, je pourrais vous en reparler un jour), mais noyé dans les dossiers du quotidien j’avais pas plus jeté un œil autre que distrait.

Mais que font-ils donc ces gens-là ? Ils communiquent sur la nécessité de s’interroger sur les produits que l’on consomme (alimentaires ou non), et là possibilité du coup de consommer autrement, et surtout meilleur pour notre santé (le terme cobaye renvoyant aux sujets d’expérience, notamment dans la cosmétique où l’usage de singe à été la norme pendant des décennies). Mais sans les excès moralisateurs qu’on peut notamment retrouver chez certaines personnes qui « pensent mieux que vous », avec un angle beaucoup plus détendu et surtout en montrant que consommer plus responsable ne se fait pas nécessairement sans avoir à se priver de tout ni sans se ruiner, un sentiment qui revient souvent à l’esprit de ceux à qui on explique le concept de consommer autrement.

Un positionnement qui se dégage notamment de leur dernière campagne de communication sur les 7 commandements de l’eco-orgasme. Oui oui, même les produits destinés aux plaisirs sexuels de toute nature ne sont pas épargnés notamment par les perturbateurs endocriniens, pour n’évoquer qu’eux, dont les effets néfastes sur la symphonie que représente le fonctionnement du corps humain peuvent aller jusqu’à l’apparition de cancers, de dégradations cérébrales, et autres soucis liés au dérèglement hormonal (contrôle des taux cholestérol et sucres, cycle menstruel…). Classe n’est-ce pas ?

Exemple d’un des commandements : les lubrifiants

Ils sensibilisent aussi sur l’existence de labels (comme le bio, sans l’arnaque légale autour), proposent des animations et ateliers dans divers lieux dont des festivals, mention spéciale aux ateliers DIY, oui, il paraît que vous pouvez fabriquer votre dentifrice vous même (pas que évidemment). Objectif : désacraliser les produits de tous les jours, en partant du principe que si on sait comment les fabriquer, on sait faire plus attention à leur provenance ou leur composition. Le tout en s’amusant, exactement comme dans des fablab et autres repair cafés où vous fabriquez ou réparez vos appareils ménagers et électroniques.

Et il n’y a pas que le consommateur final qui est concerné, les producteurs également sont de la partie, qu’ils soient sensibilisés sur leurs modes de production, ou mis en avant quand ils sont déjà engagés dans la démarche. Sur ce point, l’association vient de monter d’un cran en lançant La Réjouisserie, boutique en ligne/marketplace aspirant à regrouper différents producteurs souvent peu présents dans la grande distribution de par leur volonté de proposer des produits différents et plus respectueux à la fois de l’humain et par extension de la nature (un discours qui ne vibre pas super aux oreilles des industriels de la grande distribution).

Le nom du label parle de lui-même

Alors évidemment vous ne trouverez pas les mêmes produits qu’en magasin, c’est justement la raison de l’existence du bousin, mais vous aurez l’occasion de comparer avec les produits qu’on trouve sur l’application Open Food Facts qui eux proviennent plus souvent de la grande distribution, puisque pour interroger la base de données il suffit de scanner le code barres avec son smartphone, ce qu’on sait faire facilement directement en magasin.

Voilà, je trouvais sympa de prendre le temps d’en parler (les autres billets avancent tellement pas…), si vous voulez en savoir plus y’a une quantité de moyens de les approcher, réseaux sociaux, site Web (y’a les réseaux sociaux en bas de page d’accueil), je vais évidemment leur passer le mot sur ce petit coup de pouce de ma part pour qu’ils répondent si vous utilisez les commentaires juste en dessous.

Sur ce, je vous dis à bientôt, et pour paraphraser Dan Ton Corps, mettez-vous bien et surtout, portez-vous bien 😉 (ben oui c’est un peu le sujet non ?)

Le socle technique actuel du blog

lundi 22 janvier 2018 à 19:00

On m’a demandé récemment par mail des conseils pour améliorer la réactivité d’un blog WordPress, en comparant le mien qui serait bien plus rapide. Je n’ai pas encore de réponses définitives sur le sujet mais je pense utile de partager de manière globale les détails de l’hébergement actuel, histoire de pouvoir comparer proprement. Et quelques pistes pour savoir où trouver ce qui coince.

En effet, la description de l’infrastructure est éclatée entre un nombre beaucoup trop grand de billets éditos et autres pour en tirer quelque chose d’exploitable. On va donc reprendre couche par couche, histoire de savoir de quoi on parle.

Le matériel

Le serveur physique est un minisp32 de 2014 chez OVH localisé à Strasbourg. Il embarque un processeur Intel Xeon E3-1245v2, est accompagné de 32Go de RAM et deux disques de 2To dont la configuration peut varier via le système d’exploitation installé. Il dispose en outre d’une carte ethernet gigabit et l’abonnement d’OVH « garantit » un débit de 500Mbits par seconde. Bref, une bonne machine qui malgré les années qui commencent à s’accumuler nous a rarement fait défaut.

Le logiciel

Plus gros morceau, mais on va tout de même le faire dans l’ordre, du plus loin au plus près du blog.

L’os principal de la machine est Proxmox VE, un hyperviseur pour virtualisation qui repose sur un noyau Linux et donc les technologies lxc (containerisation d’os) et kvm (virtualisation complète). L’installation made in ovh configure les disques durs en raid 1 (miroir) ce qui sécurise un poil les données, même si ça ne remplace pas les sauvegardes.

Qui dit virtualisation dit machines virtuelles, et en l’occurrence on exploite des machines kvm. Celle qui héberge le blog, entre autres, est une machine sous Debian 8 Jessie (stretch en cours de validation). Je lui ai attribué 3vCPU et 6Go de RAM, et le disque est un assemblage avec LVM de deux volumes (petite extension suite à un besoin d’espace).

On parle d’hébergement web, et sans surprise on retrouve le tryptique de base qui est assuré par le serveur web Nginx (dépot dotdeb http2), le langage PHP 7.0 est fourni par dotdeb également (en mode FPM), et MariaDB 10 s’occupe de la base de données. En complément, j’ai ajouté un service Redis histoire de délester un peu la base de données suite aux problèmes de performances de disque certainement du à LVM (les images ne sont pas au même format, entre autres). Je pourrais également stocker les sessions dans Redis si j’étais motivé.

Et donc, le blog est propulsé par WordPress, avec un thème responsive (un seul thème pour couvrir tous les appareils), et quelques plugins pour ajouter quelques fonctionnalités plus ou moins visibles : postage sur les réseaux sociaux, affichage embarqué des images, barre de progression de lecture, vérification des liens cassés…

Comment j’ai amélioré les performances ?

On a déjà un socle qui a du muscle à plein de niveaux, matériels et logiciels. Mais ça ne fait pas tout. Je limite les extensions que j’utilise, et celles que j’utilise sont dans l’ensemble de qualité, pas trop lourdes (une extensions pour une tâche), certaines fonctions ont été intégrées dans le thème, qui a également été choisi pour ne pas être trop lourd. La taille de chaque page est contrôlée pour ne pas être lourde à charger même sur une connexion un peu souffrante (j’ai démarré le blog quand j’habitais encore chez ma mère, donc je fais toujours attention à ça).

J’ai fait quelques réglages sur PHP histoire de bosser comme il faut en mémoire vive (taille confortable pour l’opcache entre autres), pareil pour la base de données, qui a finalement eu le plus de boulot : pools innodb, index supplémentaires, écart sur la conformité CRUD… Et donc Redis, dans lequel WordPress stocke le contenu de plusieurs objets, articles, commentaires, pour éviter de refaire les requêtes en base de données, certaines étant particulièrement peu efficaces et peu optimisables.

Et… C’est à peu près tout, mais faut dire que c’est déjà beaucoup plus que ceux qui font un « apt install nginx php mariadb-server » et qui mettent leur site en ligne 10 minutes plus tard sans plus de configuration.

Pourquoi le site à qui il est comparé peut-il être plus lent ?

Le site en question est hébergé sur un Synology DS1515+. Il est propulsé par un Intel Atom C2538 qu’on aurait aimé avoir dans des laptops plutôt que les bousasses grand public qu’on a subi dans des netbooks pendant des années. Il est accompagné de 16Go de RAM (quand la fiche technique annonce un max supporté de 6Go, mais c’est pas grave), et la grappe de stockage fait 40To et composée de disques à 7200 tours par minute avec 256Mo de cache.

Pas du matos de merde donc, mais en dehors du stockage, on a un CPU bien moins puissant que ma grosse bertha, mais dont la principale particularité est de consommer 4 fois moins. On a rien sans rien. Mais la puissance brute n’est pas seule responsable d’un éventuel écart. Si on se réfère à ce comparatif de CPUBoss, le support d’extensions de jeu d’instructions est inexistant ou presque sur l’Atom, et ça peut avoir des conséquences importantes sur plusieurs points de fonctionnement de PHP (compilation JIT), MariaDB, et du serveur web (s’il y a du HTTPS une partie peut être gérée par le CPU via AES-NI, c’est pas mal même si c’est pas le but premier de l’intégration du jeu d’instructions). Ensuite on parle d’un NAS, et donc, la connexion qui permet d’accéder au site est certainement plus légère que celle que me fournit OVH. En particulier au niveau de l’upload, et là, y’a pas de mystère, c’est pas en France sur des connexions grand public qu’on égalera une connexion d’un datacenter, les rares qui auront droit à du vrai FTTH avec un upload qui soit pas misérable vont se compter en dessous de la dizaine de pourcents (soit au delà de 200Mbps, je sais, mais je pourrais faire un article complet sur les raisons de ce palier qui parait hallucinant).

Et un autre point qui pourrait être finalement plus important que les autres : la version et la configuration des composants. Que ce soit Nginx, PHP, MariaDB (j’ai pas encore profondément mis les mains dans Redis mais j’ai du taf pour sûr), j’ai passé un peu de temps à régler chaque composant, à analyser un peu son comportement, faire des choix par rapport à mon usage. Concernant Nginx, ça tient d’abord aux nombre de processus (workers), et au nombre de connexions absorbables par ceux-ci, plus un mode HTTP2 s’il est exploitable par les navigateurs. Pour PHP, la version 7 est vraiment un coup de fouet par rapport aux précédentes, et le mode de fonctionnement d’FPM, les modules installés, la quantité de mémoire utilisée pour certains d’entre eux a été analysée. Pour MySQL/MariaDB, idem, 10.0 apporte déjà son lot d’améliorations de performances, et l’utilisation intensive de mysqltuner m’a permis de faire pas mal de corrections sur InnoDB pour en tirer le maximum. Enfin, si je n’avais pas les outils de bases comme htop, iftop, iotop, pour analyser en temps réel le comportement de la machine, j’aurais certainement raté quelques éléments.

Car vous pourrez disposer de toute la puissance brute que vous voulez, ça pourra masquer de grosses erreurs de configuration pendant un temps, mais ça ne fera pas de miracles non plus. C’est une sacrée recette de cuisine qu’on a là, et malgré le peu d’ingrédients à y inclure, on est un peu au delà de la méthode couper/foutre.

WordPress est-il le bon outil ?

Beaucoup pensent qu’on peut tout faire avec WordPress, et que c’est pour ça qu’il est utilisé par plus d’un quart des sites web référencés par les moteurs de recherche. J’ai tendance à penser que non, sinon il y aurait encore plus de monde dessus et bien moins de technologies et de moteurs pour construire des applications web dans différents langages. J’ai pu voir du WordPress pour présenter un site vitrine, un blog en tant qu’annexe d’un autre site,  une plateforme de commerce (j’en ai un qui passe en prod fin mars d’ailleurs), un moteur d’API pour une application écrite en Javascript sur une page HTML à part — un usage curieux tant les outils pour construire des API plus légères sont légions et bien documentés. Pire, j’ai vu le backoffice d’un WordPress multisites torturé pour en faire un intranet (hébergé sur AWS d’ailleurs, on notera l’ironie de « l’intra » dans ce cas), ce qui occasionne régulièrement des problèmes de fonctionnement, certaines tâches n’étant pas taillées pour fonctionner en mode web. Un autre tente de construire une sorte de réseau social, mais il est déjà acté que finalement WordPress va devenir trop limitant, aussi bien pour les performances que les fonctionnalités.

Bref pour chacun de ces usages, il y a certainement des outils plus adaptés que WordPress. Dans le cadre de mon contact, après avoir visité le site il n’y a rien à redire dans le rôle qu’il tient, c’est le bon outil bien que d’autres auraient pu tout aussi bien convenir (SPIP, Pluxml…). Le reste peut donc venir d’un ou de plusieurs des éléments que j’ai mentionné plus haut, et je vais donc reprendre le boulot par mail ou un autre canal pour qu’on essaie de tirer la quintessence de son installation. Et vous, vous avez maintenant des billes pour chercher d’où peut venir votre problème. D’ailleurs, j’ai peut-être oublié des choses, auquel cas, juste en dessous il y a un autre outil bien utile et adapté, les commentaires 😉

 

Une très bonne/mauvaise année 2018

mercredi 17 janvier 2018 à 18:30

Je sais je suis pas en avance, en plus j’avais même pas fait de message pour Nowel. On va la faire courte, je suis pas super inspiré, après avoir tenté les deux techniques de vœux de nouvelle année pour qu’on ait pas une année trop pourrie, à titre personnel tout va bien même sans avoir tenu certaines des inévitables résolutions que l’on pose à chaque nouvelle année; on ne peut pas en dire autant de notre civilisation, plus que jamais mal en point.

On aborde donc 2018 avec un Macron en train de déconstruire le pays pour le donner aux multinationales, un Trump qui joue au kikalaplugross avec un nabot aussi débile et timbré que lui, et je ne sais quoi encore qui, mois après mois, ne donne plus super envie de vivre sur cette planète (Elon, grouille-toi de nous amener sur Mars qu’on recommence à zéro).

Et pourtant, je compte continuer de participer à ma mesure à une entraide pour les plus démunis face à notre numérisation à marche forcée de la société, à mettre en lumière les travers dans lesquels mes contemporains plongent sans en être conscient (destruction de la vie privée, aussi bien par les états et les sociétés privées), et même tenter de me « detroglodytiser » un peu plus, rencontrer physiquement plus de gens même si je reste plus à l’aise derrière un clavier. Ce dernier point étant probablement le plus compliqué pour moi, bizarrement.

Je vais alors jouer la carte suivante : aux personnes respectables (hors majorité des personnalités politiques donc), que vos projets se réalisent et embellissent votre vie; à tous les autres (dont la majorité des personnalités politiques, et les cons–ces deux groupes ne sont pas exclusifs), allez crever en enfer. Ceci dit, il m’arrive régulièrement de me traiter moi-même de débile, ne suis-je pas dès lors en train de me souhaiter une mauvaise année, ce qui semble bien parti avec une voiture en train de rendre l’âme et un point en moins sur le permis ?

PS : les brouillons avancent, au ralenti, mais ils avancent, un jour ça sortira. Je sais juste pas quand…

Modem 4G Huawei E3372 sous Linux, pas super accessible…

vendredi 12 janvier 2018 à 18:30

Sachant qu’Orange ne veut pertinemment pas corriger le pépin de la ligne téléphonique de ma mère qui continue de payer son abonnement (et Free la location de la boucle), abonnement qui fonctionne seulement la moitié du temps (remember la présentation de Grafana, c’était pour ça), la fibre étant promise pour le « premier trimestre 2018 » j’ai décidé de tenter l’aventure de la clé 4G le temps que ça arrive. Clé reçue en 24h, carte sim Free en moins d’une semaine, et même si au final la clé sera utilisée sous Windows, j’ai évidemment voulu la tester sous Linux. J’ai bien fait, c’est pas aussi simple qu’on le pense au premier abord.

Disclaimer : Tout ne sort pas de mon cul non plus, je me suis grandement basé sur l’excellent article bourré d’infos du site lecrabeinfo.net. Vu les moyens à engager pour avoir un full réseau (avec routeur WiFi à modifier pour passer à OpenWRT), je me suis arrêté à la première étape, avoir du réseau le plus simplement possible.

Comment ça une clé USB Mass Storage ?

En effet, j’ai branché la clé après avoir inséré la carte SIM, et tout ce que le noyau me dit, c’est qu’il a reconnu un USB Mass Storage, et un lecteur CD qui n’arrive pas à s’initialiser (contient notamment les éventuels logiciels de gestion sous Windows…) :

[seboss666@seboss666-ltp ~ ]$ lsusb
Bus 001 Device 002: ID 8087:8001 Intel Corp. 
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 003 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 005: ID 12d1:1f01 Huawei Technologies Co., Ltd. E353/E3131 (Mass storage mode)
Bus 002 Device 004: ID 5986:024b Acer, Inc 
Bus 002 Device 003: ID 8087:07dc Intel Corp. 
Bus 002 Device 002: ID 062a:5918 MosArt Semiconductor Corp. 
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

La notice, naturellement, vous demande de vous tourner vers le logiciel de gestion windowsien pour exploiter la clé. Dans le cul donc. J’avais réactivé ModemManager dans l’espoir qu’il détecte quelque chose, mais non. J’ai trouvé ma solution grâce à une recherche Qwant, en anglais évidemment, donc je vous explique ce que j’ai fait pour la culture. Je n’ai pas suivi l’intégralité de l’article, donc libre à vous si son cas d’utilisation vous convient.

En fait, la clé peut évidemment fonctionner dans plusieurs modes, celui qui m’intéresse est le mode carte Ethernet USB, qui est pratiquement universel sous Linux, et notamment celui qu’on utilise lorsqu’on active le partage de connexion USB de son smartphone. Mais pour ça, il faut bricoler un peu.

On commence par installer le paquet usb_modeswitch sur ma Manjaro (usb-modeswitch sous Debian/Ubuntu), ensuite via sudo on crée/remplit le fichier /etc/usb_modeswitch.conf :

# Huawei E353 (3.se) and others
 TargetVendor=0x12d1
 TargetProductList="14db,14dc"
 HuaweiNewMode=1
 NoDriverLoading=1

Pour le détails des identifiants, se reporter à l’article original, mais bon ça va nous permettre de changer le mode de la clé, avec la commande suivante :

sudo usb_modeswitch -v 12d1 -p 1f01 -c /etc/usb_modeswitch.conf
Look for target devices ...
 No devices in target mode or class found
Look for default devices ...
 Found devices in default mode (1)
Access device 005 on bus 002
Get the current device configuration ...
Current configuration number is 1
Use interface number 0
 with class 8
Use endpoints 0x01 (out) and 0x81 (in)
Using standard Huawei switching message
Looking for active drivers ...
 OK, driver detached
Set up interface 0
Use endpoint 0x01 for message sending ...
Trying to send message 1 to endpoint 0x01 ...
 OK, message successfully sent
Read the response to message 1 (CSW) ...
 Response successfully read (13 bytes), status 0
Reset response endpoint 0x81
 Could not reset endpoint (probably harmless): -99
Reset message endpoint 0x01
 Could not reset endpoint (probably harmless): -99
 Device is gone, skip any further commands
-> Run lsusb to note any changes. Bye!

Quelques secondes plus tard, on devrait avoir ça :

[seboss666@seboss666-ltp ~ ]$ lsusb
Bus 001 Device 002: ID 8087:8001 Intel Corp. 
Bus 001 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub
Bus 003 Device 001: ID 1d6b:0003 Linux Foundation 3.0 root hub
Bus 002 Device 006: ID 12d1:14dc Huawei Technologies Co., Ltd. E33372 LTE/UMTS/GSM HiLink Modem/Networkcard
Bus 002 Device 004: ID 5986:024b Acer, Inc 
Bus 002 Device 003: ID 8087:07dc Intel Corp. 
Bus 002 Device 002: ID 062a:5918 MosArt Semiconductor Corp. 
Bus 002 Device 001: ID 1d6b:0002 Linux Foundation 2.0 root hub

Dans mon cas deux secondes plus tard NetworkManager m’indiquait être relié à un nouveau réseau. On y est presque !

Et maintenant, comment qu’on rentre son code PIN et qu’on teste sur nPerf ?

En effet, je n’ai pas rentré le code pin de la carte SIM, donc pas de connexion « internet » pour l’instant. Une petite inspection me permet de vite trouver mes petits :

[seboss666@seboss666-ltp ~ ]$ ip a
(...)
4: enp0s20u7: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UNKNOWN group default qlen 1000
    link/ether 0c:5b:8f:27:9a:64 brd ff:ff:ff:ff:ff:ff
    inet 192.168.3.10/24 brd 192.168.3.255 scope global dynamic noprefixroute enp0s20u7
       valid_lft 86359sec preferred_lft 86359sec
    inet6 fe80::a7b2:408a:e123:9435/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
[seboss666@seboss666-ltp ~ ]$ ip route show
default via 192.168.3.1 dev enp0s20u7 proto dhcp metric 20100 
192.168.3.0/24 dev enp0s20u7 proto kernel scope link src 192.168.3.10 metric 100

J’ouvre donc un énième onglet dans Firefox, et tape l’adresse http://192.168.3.1 : Paf ça fait des Chocapic ! Je tombe sur l’interface me demandant de saisir le code PIN (et me propose de l’enregistrer pour ne plus avoir à le saisir à l’avenir, faites comme vous le sentez). Dans l’excitation du moment je n’ai pas pris le temps de faire de capture d’écran.

J’avais tout de même un souci : après la saisie, le voyant clignote encore un peu et se fixe sur un Cyan sans clignoter. Petite notice qui dit qu’on est sur un 3G+/4G. Vérification sur l’interface, en effet, il dit être relié en 4G, mais la force du signal est pas dingue. Dans les paramètres réseau, on peut décocher l’option Prise en charge des réseaux 4G.

Moins de deux secondes plus tard, ça fonctionne :

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Le débit est pas ouf chez moi, mais j’ai l’intention de tester évidemment chez ma maman, mais je sais déjà via les techniciens Free qui sont passé que la couverture est pas trop dégueulasse malgré la distance des antennes (dans ma chambre c’était du full 4G). C’est donc une victoire ! (d’ailleurs pour pas perdre trop de choses, j’ai écrit la majorité de cet article via la connexion 3G tant que c’était frais 😀 )

Y’a encore du chemin à faire

Imaginez quelqu’un qui est un utilisateur basique d’une distribution Linux, qui se retrouve à devoir utiliser ce genre de solutions (ma frangine s’est vu « offrir » une clé 3G par Orange pendant qu’il ne voulait pas engager les travaux pour déployer un nouveau faisceau de ligne pour la raccorder en ADSL moisi). À qui dans mon entourage hors bricoleurs je peux dire « ben avec usb_modeswitch ça va tout seul, ensuite tu bricoles sur l’interface web de la clé et roulez jeunesse » ? Non, ça ne fonctionne pas.

Il y a donc encore des progrès à accomplir sur ce terrain, je ne dis pas que c’est évident, facile à faire, d’autant qu’on peut difficilement compter sur les fabricants, comme trop souvent encore. Malgré tout c’est fonctionnel, ce qui est déjà une première étape.

Mais comment ça pourrait aller mieux, alors qu’on annonce des « Always connected PCs » embarquant des modems 4G, voire carrément des puces ARM, Microsoft avançant main dans la main avec Qualcomm et adaptant Windows 10 pour qu’il fonctionne de manière transparente sur une plateforme non x86 ? Avec un Qualcomm en plus pas le plus respectueux en termes de support étendu de son matériel (plusieurs puces à destination d’Android ont vu leur support arrêté très rapidement, genre moins de trois ans, donc pas de possibilité propre d’exploiter les versions récentes d’Android), c’est une fois de plus une catégorie de matériel qu’il ne sera pas possible de libérer, même partiellement, d’autant plus si les outils pour l’exploiter derrière sont aussi rugueux.

Enfin bon, dans mon cas, ma mère va enfin pouvoir continuer de surfer, de mater ses vidéos sur YouTube, voire même maintenant goûter aux joies de Netflix et d’Amazon Prime Video, étant donné la qualité de plus en plus douteuse des contenus des chaînes de télévision classique, même spécialisées (et avec les rediffusions, même Science et Vie TV, ça devient chiant, je sais j’ai mangé pendant deux semaines). Bref, un usage post-2010 classique qui est encore refusé à un nombre beaucoup trop important de personnes dans notre pays en raison de choix stratégiques plus que douteux, aussi bien de la part de l’État que des acteurs privés…