PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Je suis passé à Powerline pour mon Bash

lundi 20 août 2018 à 18:30

Après des années à voir passer des articles sur des configurations spécifiques pour bash, et plus récemment sur fish, que des collègues utilisent au boulot (les mac eux bossent sur zsh), je me suis dit qu’il faudrait aller un peu plus loin que mon bash classique à peine modifié pour inclure git. Ça n’a pas été de tout repos, j’ai pas mal tâtonné mais j’arrive à quelque chose qui me plaît.

Première tentative : powerline.bash

J’ai vu passer le script sur le Journal du Hacker, ça m’a plu très vite : pur bash, léger, on clone, on source et ça juste marche. A peu de chose près, car il faut avoir une police adaptée comme pour Powerline, j’ai procédé comme suit :

git clone https://github.com/powerline/fonts.git
cd fonts/SourceCodePro
sudo find . -iname "*.otf" -exec cp {} /usr/share/fonts/opentype/ \;
sudo fc-cache -f -v

Ça, c’était chez moi, et dans l’ensemble ça fait le taf. Là où ça coince, c’est en arrivant sur ma vm Lubuntu du boulot, j’ai un problème disqualifiant avec la complétion SSH. Le problème est très exactement décrit dans une issue mais pas de réponse pour l’instant il est pris en charge maintenant qu’il a reçu les notifications 🙂 Je reproduis sur deux variantes fraîchement installées d’Ubuntu. Avec un comportement encore pire sur Ubuntu car les polices ne sont pas prises en compte comme il faut, donc on a des trucs biens dégueu sur les séparations. Un debug à base de bash +x ne donne rien de flagrant. Je reviens en arrière et cherche un peu, mais je suis déjà frustré.

UPDATE : Comme quoi la contribution ça tient à peu de chose, une petite remontée rapide, et hop, le problème de complétion SSH est maintenant corrigé 🙂

Finalement, rien de tel que l’original : Powerline

Ce qui était sympathique avec ça, c’est que c’est ultra léger. Powerline de son côté est écrit en python, nécessairement plus complexe. L’installation est cependant encore plus simple puisque le soft est empaqueté et présent dans la plupart des distributions. Il y a quelques subtilités notamment les paquets de polices adaptées dont le nom change. En effet, si c’est fonts-powerline sur Ubuntu et dérivés, c’est powerline-fonts sur Arch/Manjaro.

NB : au départ Powerline est prévu pour « pimper » Vim, mais des plugins sont vite venus se greffer dessus pour ajouter le support des différents shells.

L’activation elle par contre est un peu plus roots. On commence par créer le dossier ~/.config/powerline qui va contenir nos différents éléments de configuration, et vous allez voir qu’il en faut potentiellement beaucoup plus. Au début je la joue simple, j’utilise juste le thème default_leftonly qui inclue le segment pour git. Il faut pour ça juste ajouter le bout de json « kivabien » dans le fichier config.json :

{
        "ext": {
                "shell": {
                        "theme": "default_leftonly"
                }
        }
}

Reste ensuite à ajouter les lignes suivantes dans un bashrc, bash_aliases, ou encore .extend.bashrc en fonction de votre distribution pour activer le bousin :

#Powerline
if [ -f `which powerline-daemon` ]; then
  powerline-daemon -q
  POWERLINE_BASH_CONTINUATION=1
  POWERLINE_BASH_SELECT=1
  . /usr/share/powerline/bindings/bash/powerline.sh
fi

Un source plus tard, dites bonjour au prompt :

Problème, même en jouant avec les options du segment, je ne vois pas l’état du dépôt courant, juste la branche. Au moins avec powerline.bash la couleur changeait pour dire qu’il y avait du taf en cours.

En cherchant une autre solution je tombe sur gitstatus, un segment personnalisé spécial pour git. Installation simple aussi, puisque le module s’installe via pip. Sa configuration par contre c’est beaucoup plus touffu, d’où ma remarque un peu plus tôt. Je suis la documentation plus ou moins à la lettre, je m’explique. Il faut d’abord créer le profil de couleur pour toutes les infos qu’il va afficher. Ensuite, et c’est là que c’est pas forcément clair, il faut créer une copie du thème par défaut pour y inclure le segment gitstatus, sinon il n’est pas pris en compte. Et comme c’est un ajout au thème par défaut, finalement virer mon fichier config initial puisque on rebascule dessus.

En rechargeant le tout c’est beaucoup plus intéressant côté git :

Certes il va maintenant falloir prendre l’habitude de la signalétique mais on sait tout de suite dans quel état se trouve le dépôt.

Une doc à fouiller

J’avais modifié mon rôle Ansible maison de déploiement utilisateur pour exploiter la version en bash, puis pour la première version en Python; mais il va falloir encore un peu plus de taf pour celui-ci, car on voit que le boulot est plus conséquent. Comme je l’ai dit, la doc Ansible est un bonheur, et il y a un module pip qui va permettre de faire les choses proprement.

Il y a en effet pas mal d’options à creuser, j’ai déjà un truc qui va bien, mais il est possible d’aller un poil plus loin, donc on va bosser un peu le site dédié même si le niveau de détails est loin d’égaler la doc d’Ansible. Je cherche notamment à finalement bosser sur deux lignes, j’ai vu ça sur la version bash et ça m’a plu direct. Affaire à suivre donc. Apparemment c’est faisable mais c’est pas aussi simple que ça parait.

Warning sur Arch/Manjaro

En fait la routine d’inclusion au bashrc avait du être adaptée quand je l’ai installé sur le laptop. Pour une raison que j’ignore, le fichier powerline.sh à inclure se trouvait dans le dossier d’installation de Python, /usr/lib/python3.6/site-packages/powerline/bindings/bash/powerline.sh, et pas celui de la documentation (qui est faux aussi pour Debian/Ubuntu soit dit en passant). En tout cas je l’ai trouvé là, du moins updatedb/locate me l’a montré à cet endroit-là.

Oui mais entre temps, petite mise à jour (370 paquets…), et surprise, Python 3.7 est de sortie. Du coup le chemin change (étrangement je retrouve celui que je vous ai partagé), et le paquet gitstatus doit être réinstallé pour la nouvelle version. Faudra juste s’en souvenir lors de l’arrivée de Python 3.8 🙂

D’autres options pour avoir un shell plus « musclé »

J’ai volontairement fait le choix de rester mesuré sur les ajouts que je fais sur Bash. J’ai également fait le choix de rester sur Bash, parce que si sur le laptop je fais ce que je veux, quand je suis sur les serveurs des clients je ne maîtrise pas tout, et en particulier nos prérequis système s’appuie sur le shell par défaut des distributions qu’on utilise, et donc CentOS utilise Bash, tout comme Debian. Je préfère donc éviter de trop diverger.

J’évoque notamment Fish en introduction, c’est l’exemple parfait de divergence qui rend service mais qui peut desservir aussi quand on n’y a plus accès. Notamment en matière de scripting. C’est donc un outil qu’il faut analyser vraiment en détail avant de vouloir s’en servir.

Dans une optique plus mesurée, j’avais déjà pu dans le passé tester rapidement liquidprompt. Ça vient se greffer sur Bash comme Powerline, et les options d’affichage sont aussi nombreuses, même plus que pour Powerline. Mais ça ne m’avait pas emballé à l’époque, peut-être le design, ou alors c’était trop tôt pour moi.

D’ailleurs liquidprompt est aussi exploitable sur Zsh, mais j’en connais qui l’utilisent plutôt avec Oh My Zsh, qui exploite à fond les capacités de personnalisation de Zsh pour proposer une expérience qui déboîte à ce qu’il paraît. Plusieurs collègues au boulot, notamment ceux qui bossent sur Mac, l’utilisent de cette façon, du fait que Zsh et Bash partagent pas mal de similarités (plus qu’avec Fish), je me laisserai peut-être tenter un jour. Avec toujours ce problème qu’il n’est pas toujours possible de l’exploiter sur les serveurs des clients, ce qui oblige donc à garder les bases en mémoire.

Ce sont les options les plus connues je pense. Mais si vous connaissez d’autres options pour avoir une ligne de commande qui rox du poney, n’hésitez pas à partager, je suis certain que vous avez tous vos petites astuces concernant votre shell préféré. Et je serais curieux de les connaître 🙂

Ce que je comprend des services alternatifs fédérés et les problèmes qu’il reste à couvrir

vendredi 17 août 2018 à 18:30

Pour les techniciens, désolé, ça ne sera pas un tour de table exhaustif des protocoles et sites à la mode qui courent en ce moment. Non, ici, on va reprendre un peu à la base, pour présenter les choses simplement. Mais ne partez pas, parce qu’il reste des choses à dire sur les enjeux, en particulier ceux auxquels selon moi ils ne répondent pas. On va causer réseaux sociaux, services vidéos, créateurs, et problème fondamental du Web actuel.

C’est quoi un service fédéré alternatif ?

Avant d’attaquer l’aspect fédéré, revenons sur le concept d’alternative. Il s’agit de proposer d’autres solutions pour remplir plus ou moins la même fonction. Vous avez déjà entendu parler de LibreOffice comme alternative à Microsoft Office, ou d’Ubuntu comme alternative à Microsoft Windows ? Le concept est le même pour les services Web, dont la plupart sont verrouillés par les entreprises qui les développent. L’année dernière il a été fait grand bruit de Mastodon (par exemple sur Libération, pas vraiment orienté technique comme site d’information), présenté comme alternative à Twitter, Diaspora* existe depuis quelques années en étant présenté comme « remplaçant » de Facebook, plus récemment on fait beaucoup de bruit autour de la montée en puissance de PeerTube pour déloger YouTube de son fauteuil doré afin qu’il retourne sur une chaise (dorée aussi, mais j’y reviendrais). Voilà, pas besoin de rentrer dans la technique, vous avez le concept, ce sont des services « concurrents », mais qui sont développés avec une particularité qui est très intéressante à mon sens et qui devrait retenir l’attention des gens.

Et là, on va parler de fédération. Déjà, on rappelle que Twitter, Facebook, YouTube et compagnie sont des entreprises privées qui centralisent les données qu’on leur fournit (contenus, interactions, plus pistage sur les sites tiers) dans leurs silos. Vous n’avez qu’un seul point d’entrée pour Twitter, un seul pour YouTube, etc. Les conditions d’utilisation sont également douteuses, mais ce n’est pas le sujet principal, juste prendre en compte qu’ils sont les seuls maîtres à bord de LEUR navire. Et que s’ils choisissent de filtrer, censurer, ou que les autorités de votre pays de résidence décident que vous n’avez plus le droit d’accéder à un service, vous n’avez plus accès à rien.

Dans le cadre d’un service fédéré, il existe plusieurs copies du même service, mais les copies dialoguent entre elles pour indiquer quels contenus elles hébergent, de sorte que quelle que soit l’instance (c’est le terme utilisé pour désigner la copie) sur laquelle vous vous rendez, le contenu intégral vous est proposé. La notion principale et l’objectif recherché est là : tout le contenu n’est plus hébergé dans un « lieu » unique avec un seul décideur quant à sa disponibilité, mais réparti sur de multiples lieux, de sorte que si l’un des lieux tombe, le reste du contenu est toujours disponible, et il n’y a qu’un seul morceau qui manque.

À qui faire confiance ?

Les idéalistes pensent que chacun peut installer sa propre copie, s’inscrire dessus et la connecter au reste du « fediverse », le nom donné à l’univers fédéré. L’histoire a prouvé maintes et maintes fois que la réalité est toute différente, et comme vous accordez une certaine confiance à Facebook, vous allez devoir faire confiance de nouveau à des prestataires pour la fourniture du service, à moins d’être un administrateur système confirmé.

Et là, bon courage. D’une part, quelque soit la robustesse de la solution logicielle, l’héberger soi même est un travail de technicien, donc un très très faible pourcentage du public global peut se le permettre. Ensuite, en admettant qu’une personne monte une instance, et accepte des inscriptions dessus, elle devient du coup, en tant qu’hébergeur, responsable juridiquement des éventuels débordements des utilisateurs de son bout de réseau. Et là, la proportion des techniciens prêts à prendre du temps et de l’argent pour assumer ce rôle fond encore plus comme neige au soleil.

C’est tout le problème qu’a rencontré Framasoft lors du lancement de la campagne Dégooglisons Internet. L’idée de base était de montrer que les alternatives qui vous respectent existent, et de proposer un service « framabidule » en preuve de concept, sans oublier de mettre en avant le logiciel original en dessous pour pouvoir le monter vous-même ailleurs pour vos propres besoins. Je vous le donne en mille, certains de leurs services sont déjà devenus incontournables, les utilisateurs ne cherchant qu’à rester utilisateurs avant tout. Il serait aussi intéressant de connaître le niveau de contribution apporté par le flot d’utilisateurs avancés supplémentaires qui ont été apportés par la campagne.

Le titre du chapitre c’est à qui faire confiance, et je pense qu’on peut sans peine faire confiance à Framasoft sans trop de difficultés. Mais Framasoft n’est qu’une association, certes suffisamment volumineuse pour se permettre d’avoir des « salariés », mais association avant tout. Et rien n’est gratuit dans le monde du numérique, à commencer par l’infrastructure. Tout comme Wikipedia, malgré des plans de fonctionnement sur plusieurs années, ceux-ci sont dépendants d’un budget pour lequel ils doivent se battre chaque année à renforts d’appel aux dons. Wikipedia a d’ailleurs été plusieurs fois critiqué pour la forme qu’a pris leurs appels aux dons.

La confiance sera peut-être plus limitée avec un autre acteur plus modeste. Le collectif C.H.A.T.O.N.S. initié la aussi par Framasoft est une étape supplémentaire pour proposer une sorte d’annuaire d’hébergeurs capables de proposer le même type de services qu’eux. Hébergeurs qui respectent tous une charte sur le respect de leurs utilisateurs. Mais ce n’est pas exclusif, c’est tout le concept dans le cas d’un service fédéré.

Et là, ça se complique vachement.

Qui lit les cgu ?

La question n’est pas anodine. Les fameuses conditions générales d’utilisation des services que personne ne lit jamais avant de filer ses données à un service souvent outre Atlantique ont un certain avantage dans le cadre des services centralisés : elles sont les mêmes pour tout le monde, puisque tout le monde se connecte au même endroit.

Dans le fediverse, la situation est différente : chaque instance du service peut imposer ses propres conditions d’utilisation. Toutes ne se valent pas, encore qu’il y a un tronc commun; pire encore, pour étendre le sujet sur la confiance, l’égo de l’administrateur peut rentrer en ligne de compte. Comment c’est possible ? Comme je l’ai dit, juridiquement l’hébergeur est responsable du contenu qui est publié chez lui, même si le contenu est consultable en dehors via une autre instance. Il a donc tout intérêt à établir des règles, et il n’est pas rare de voir des conditions très particulières d’utilisation, en fonction de l’administrateur justement.

Le(s) problème(s) spécifique(s) de la vidéo

Je voulais mettre ce paragraphe à part, parce que selon moi le domaine de la vidéo met énormément de problèmes en lumière. De la même manière que Mastodon a fait du bruit l’année dernière, Framasoft a réussi à faire parler de PeerTube, et mieux encore, financer le salaire de son développeur principal pour qu’il se concentre dessus sur l’année qui vient. C’est déjà un exploit remarquable que je tiens à saluer.

PeerTube donc, vous l’aurez deviné doit proposer une alternative à YouTube décentralisée, fédérée, avec une particularité supplémentaire nécessaire selon moi en raison du poids des contenus : dans la mesure du possible les vidéos sont diffusées en peer-to-peer, donc d’utilisateur a utilisateur et non plus uniquement de serveur à utilisateur (le serveur fait toujours office de source, de sorte que même si personne n’est en train de regarder la vidéo, elle reste toujours disponible). C’est une très très bonne idée selon moi, et les navigateurs modernes sont maintenant suffisamment équipés pour supporter ça sans problème. Enfin sans problème, j’en parle tout à l’heure.

Le logiciel est jeune, à peine trois ans, doit encore compléter ses fonctionnalités, mais fonctionne déjà bien, et c’est ce qui je pense à fait le succès de la campagne de financement. Et il semble reposer sur des bases techniques solides qui ne le limiteront pas beaucoup dans le futur (je dois encore mettre mon nez dedans pour confirmer cette impression). Rien que la fédération est intéressante en soi, car il existait déjà des outils « clé en main » pour monter une plate-forme de diffusion vidéo, mais mono serveur. Et puis, essayez de monter un serveur Mediagoblin et revenez me voir quand vous aurez séché les dernières larmes de sang de votre visage (un problème qui touche également Diaspora* et dans une moindre mesure Mastodon en raison de leurs choix techniques).

Maintenant, difficile de parler de diffusion vidéo sans parler de création, donc des créateurs. Sur le papier, tout le monde peut produire du contenu à hauteur de ses moyens et les diffuser. Mais mécaniquement un contenu vidéo coûte beaucoup plus cher à produire, que ce soit avec le matériel nécessaire en fonction du type de contenu, qu’en temps passé en écriture, tournage, montage, encodage (pour gagner du temps on peut dépenser en machine puissante), et enfin la publication, l’envoi de la vidéo finale sur nos connexions ADSL est une tannée et il n’y a que des ministres parisiens surgavés de réseaux pour penser que la fibre est déjà majoritaire sur nos territoires.

Et certains cherchent donc, au regard du temps passé, à en faire leur activité professionnelle, souvent en tant qu’indépendant, et pour ça, il faut une source de revenus. Sur YouTube si historiquement la publicité apposée sur les contenus suffisait, le paysage a évolué, les revenus se sont effondrés, et il n’est pas rare que le résultat soit un mix de publicités (qui pose d’autres problèmes, j’y reviendrai), de financement participatif, d’opérations spéciales financées par des marques voulant mettre un produit ou service en avant… Malgré tout la publicité reste une part importante et rares sont ceux qui disposent d’une communauté de financeurs (sur Tipeee ou Patreon par exemple) suffisante pour s’en passer. C’est même souvent la première et unique source pour ceux qui débutent, avant d’acquérir la visibilité suffisante pour tenter l’aventure participative, puis les opérations spéciales.

Sauf que là où YouTube est un point de diffusion unique, permettant de garantir dans une certaine mesure les affichages de publicité, et de centraliser du coup la répartition des revenus, une vidéo sur PeerTube peut être regardée depuis n’importe quelle instance qui n’inclut pas forcément de contenus publicitaires, pire, chaque instance pourrait tenter l’aventure avec une régie pub différente, et là bon courage pour gérer ensuite la rétribution financière, puisque le principe veut que c’est la plate-forme qui récupère les sioux et ventile ensuite en fonction du trafic mesuré. Et ça va être ingérable pour ventiler sur des producteurs qui sont inscrits ailleurs. D’autant plus qu’il faut garder à l’esprit ce que j’évoquais sur les cgu et les administrateurs…

Sans ce premier braquet, il est donc compliqué de voir émerger des producteurs qui pèsent, d’autant plus qu’il va falloir du temps pour que le réseau représente un parc de visionneurs significatif (une quasi-histoire d’œuf et de poule), hors ce qui continue de pousser les nouveaux joueurs sur YouTube pour tenter de vivre de leurs créations, c’est l’assurance de toucher une audience potentielle particulièrement rapidement. Et avec la visibilité qu’on acquiert, les contrats spécialisés permettant de diversifier les revenus. Quand YouTube peut annoncer plus d’un milliard et demi d’utilisateurs mensuels, qui est un chiffre qui plaît aux marques, compliqué de pouvoir calculer l’équivalent dans un univers fédéré. D’autant qu’il faudra longtemps pour qu’il soit disons équivalent à un Dailymotion pourtant moribond aujourd’hui face à YouTube.

Et là j’entends déjà les extrémistes me dire qu’on a pas besoin de « YouTubeurs » sur Peertube. Oui, mais vos instances, elles existent pas par magie non plus, ce sont des logiciels puissants qui demandent une ou plusieurs machines qui supporte(nt) à la fois le stockage et la conversion de la vidéo pour s’adapter au visiteur et son débit. Débit qui doit aussi être conséquent malgré l’utilisation du WebTorrent, la technique pour la diffusion vidéo en peer-to-peer, car à chaque publication de vidéo il faut s’attendre à une période « creuse » ou personne n’est en capacité de servir de pair. On parlait de CHATONS tout à l’heure, il faut bien comprendre que la plupart des services qu’ils proposent sont payants. Pour une bonne et simple raison : l’hébergement ça coûte cher. YouTube ne fait rien payer à ses utilisateurs (ça vient doucement avec des abonnements « premium »), et rien non plus aux créateurs. Si ces derniers touchent de moins en moins sur la publicité, c’est que celle-ci finance avant tout l’infrastructure gargantuesque de YouTube. Il en sera de même pour ceux qui tenteront l’aventure Peertube, il faudra trouver un modèle pour pouvoir supporter les coûts de cette infrastructure. C’est tout le problème du web à l’heure actuelle : les utilisateurs ont été habitués pendant plus de 20 ans à ne rien payer, maintenant c’est la fête aux fermetures de sites parce qu’il est impossible de continuer à payer ou alimenter (le temps, encore lui) sans contreparties.

Ajoutez un problème technique ce coup-ci lié à WebTorrent, qui est donc une technique de peer-to-peer. Un point dont n’est pas responsable PeerTube en soi, mais lié au fait que les opérateurs persistent à vouloir créer des réseaux de consommation de contenus unidirectionnel quand internet a été conçu pour que chaque machine puisse jouer tous les rôles, consommateur ou diffuseur. Que ce soit sur les connexions ADSL, dont le débit montant, celui qui permet de pousser du contenu, est mécaniquement maintenu à une valeur ridiculement faible, empêchant de fait le partage efficace des contenus diffusés sur PeerTube (un point qui verra une solution dans le déploiement du très haut débit, le vrai, la fibre quoi), ou bien la contrainte du NAT, dont j’ai déjà eu l’occasion de parler, et qui empêche par défaut toute connexion directe entre appareils derrière deux passerelles distinctes, compliquant d’autant plus la diffusion (upnp permet de s’en accommoder, mais il faut savoir ce que ça implique question sécurité). Un problème d’autant plus vrai sur des réseaux mobiles, dont les appareils sont tous cachés derrière des sortes de livebox géantes, là aussi pas question d’autoriser une connexion depuis l’extérieur.

En parlant de mobile, pour l’instant ce n’est pas une priorité, alors qu’avec un trafic qui se fait maintenant plus souvent sur smartphone que sur pc, c’est juste nécessaire, limite obligatoire. Mais là je peux comprendre en partie : proposer un client mobile présuppose d’abord d’avoir une plate-forme technique solide et surtout stable, d’un point de vue api entre autres. Il y a d’ailleurs déjà quelques débuts de tentatives d’application Android créées de manière indépendante, ce qui valide un peu ce que je viens de dire sur la nécessité, et me conforte aussi sur la faisabilité d’un ou plusieurs clients, même de manière indépendante à la plate-forme logicielle elle même.

À quand chez moi ?

Du fait de ne pas avoir besoin de monétisation, je pourrais très bien installer ma propre instance PeerTube pour y redéposer les quelques vidéos que j’ai pu produire pour le blog. Je n’ai pas prévu d’en ouvrir les accès autres qu’en lecture évidemment, c’est juste une manière de rendre mon blog moins dépendant d’un service privé sur lequel je n’ai aucune emprise. Pour les autres, ce n’est pas au programme, je passe déjà de moins en moins de temps sur Twitter, mais je garde une certaine tendresse par rapport à ce réseau malgré son évolution ou les récents déboires que j’ai pu avoir avec l’application officielle sur Android (et la difficulté pour les clients alternatifs de composer avec les conditions scandaleuses d’utilisation de l’API Twitter). Notamment car c’est un peu grâce à lui (et à Flemzord) que j’ai changé de vie.

On récapitule ?

Les services fédérés donc, ça permet de proposer une alternative aux services centralisés privés pour améliorer leur résilience, c’est à dire la capacité à rester debout, même partiellement, quand un morceau tombe. Il n’y a pas de censure globale possible. Ils sont encore souvent compliqués à installer soi-même, de fait la majorité des utilisateurs se tourne vers une poignée de prestataires plus ou moins dignes de confiance. Ces prestataires devront résoudre une équation parfois compliquée par rapport aux coûts d’infrastructure. Une équation qui se complique encore avec les créateurs quand on aborde le monde de la vidéo, et pour laquelle trouver un ou plusieurs modèles de financement sera très très compliqué selon moi. Financement qui concerne aussi l’infrastructure, et dont les utilisateurs ne sont pas habitués à contribuer.

Maintenant, je ne peux que vous encourager à tester ces services, typiquement, si vous êtes un accroc à Twitter, Mastodon devrait vous faire de l’œil, on commence à voir apparaître des outils comme Pixelfed pour montrer qu’Instagram aussi peut être copié autant qu’il copie Snapchat… Bref, très souvent vous trouverez des solutions alternatives qui ne reposent pas dans les mains de sociétés privées cotées en bourse dont les intérêts ne consistent pas à respecter leurs utilisateurs. La seule chose qui vous retiendra peut-être, c’est de convaincre vos connaissances actuelles d’y passer (ce qui fait que je suis presque coupé d’une partie de ma famille depuis l’arrivée de Facebook…). Mais c’est certainement l’occasion d’en rencontrer de nouvelles 🙂

Microsoft, Windows 8 et le MTP : mais quelle connerie franchement…

mardi 14 août 2018 à 18:30

Quand je vous dis que Windows c’est de la merde, c’est pas une légende ou du troll gratuit. Ce truc est vraiment foirasse au possible parfois. Certes « Linux » n’est pas forcément la panacée, mais au moins quand un problème se pose, le message est généralement plus précis, et le niveau de contrôle sur le système permet de trouver une solution rapidement. Là, j’ai un cas magnifique de saloperie dont seul Microsoft a le secret je pense. Et il est nécessaire que je vous partage ça pour comprendre le niveau de frustration que ça peut engendrer, aussi bien chez des avertis que des non-techniciens.

Petit historique : au-delà d’un disque dur dont l’asthme n’a d’égal que la consommation de ressources d’un antivirus Kaspersky, l’ordinateur de ma mère fonctionnait plutôt bien jusqu’à il y a quelques mois, où les comportements bizarres ont commencé. C’est le scanner tout d’abord qui a arrêté de fonctionner. Plus exactement, l’ordi indique que le scanner est indisponible, crache une erreur incompréhensible dont la recherche ne donne rien. J’ai pu réparer temporairement en supprimant l’intégralité des fichiers relatifs à l’imprimante, redémarrant la machine, et reprenant l’installation de zéro. Ça a fonctionné… une semaine, avant de re-péter sans que quelqu’un n’intervienne en particulier. Je précise que l’imprimante en question n’a aucun problème sous Linux, aussi bien en USB qu’à distance (la gestion du scanner à distance c’est encore assez rugueux mais ça se fait).

Pourquoi je vous parle de scanner alors que l’article cause MTP, et donc smartphone ? Ben justement c’est lié. Pour contourner les problèmes liés au scanner, ma mère, pour numériser ses documents, les prend en photo avec son smartphone et les transfère ensuite sur son ordi (pour envoi par mail, sur le site de sa banque, etc). Or dernièrement, et c’est la raison de mon énervement qui s’ajoute à celui de ma mère, c’est son téléphone qui n’est plus reconnu par Windows; enfin si, y’a juste le lecteur CDROM virtuel qui contient des outils du fabricant du smartphone (Lenovo en l’occurrence), mais le téléphone n’apparaît plus dans l’explorateur de fichiers pour y consulter le contenu. Une bascule en mode PTP ou même stockage de masse USB (Lenovo ayant réintégré la fonction) ne sont pas fonctionnels, le stockage de masse n’expose que la carte SD, et l’application photo stocke sur la mémoire interne. Il va sans dire que le téléphone est reconnu sans problème sous Linux, en tout cas ma Manjaro (tiens d’ailleurs faudrait que je fasse un nouveau suivi du laptop LDLC pour la forme).

En me penchant sur le problème, je ne vois aucun message dans l’observateur d’évènements, c’est magique. Par contre, le gestionnaire de périphérique m’affiche bien un petit panneau triangulaire par dessus le « MTP device » qui est le téléphone en question. Description du message :

Impossible de terminer l’installation du pilote, une section d’installation de service dans ce fichier INF n’est pas valide.

Génial, de qui vient ce fameux pilote à votre avis ? Microsoft pardi !!! Au départ j’ai suivi les conseils de l’assitant qui indiquaient de tenter de mettre à jour via le bouton idoine, en sélectionnant une source en ligne. Sauf qu’il cherche le même pilote, avec donc le même résultat. C’est fou comme c’est bien foutu hein ?

Après avoir complètement désinstallé le pilote et avoir débranché/rebranché l’appareil j’obtiens quand même un code d’erreur, que je m’empresse de filer à Qwant avec un ou deux autres mots clés comme MTP et Windows, et tombe sur ce fil du forum Microsoft, qui décrit exactement le même symptôme mais pour Windows 10, et qui propose une solution, qui est à la limite du foutage de gueule, quand on voit la manipulation. C’est pas la réponse elle-même le problème, puisqu’elle est fonctionnelle, et donc je remercie la jeune femme à avoir pris le temps de répondre. Non, la solution proposée repose sur la sélection manuelle d’un autre pilote, lui aussi fourni par Microsoft, mais avec un nom différent, « Périphérique USB MTP », pour faire le même travail, à savoir l’installation d’un périphérique MTP (qui veut dire Media Transfer Protocol, pas vraiment besoin de traduction pour le coup) pour le transfert de fichiers depuis un smartphone compatible. Et donc, comme je l’ai dit, ça fonctionne comme un charme pour le moment et son téléphone apparaît de nouveau dans l’explorateur de fichiers quand on le branche.

Donc du jour au lendemain, pour le même téléphone branché depuis des mois (c’est un cadeau de Noël…), Windows a décidé de swticher sur un pilote incomplet et n’essaie même pas d’utiliser l’ancien qui devait être celui en place initialement. Sans rien demander à personne évidemment, et sans autre manipulation particulière de ma mère autre que de brancher/débrancher son téléphone (qui n’a pas été mis à jour depuis un moment, l’éternel problème du monde Android, j’ai eu l’occasion d’en parler dans mes prérequis de smartphone acceptable en 2018). J’aurai aimé que ça soit aussi le cas pour le scanner, mais pas de bol, il reste en carafe pour l’instant. J’aurais tellement aimé pouvoir la basculer sous Nux, mais c’est pas encore pour demain malheureusement 🙁

 

Quelques astuces diverses, treizième

dimanche 12 août 2018 à 10:30

On en apprend tous les jours sur nos systèmes préférés, d’autant plus quand on manipule souvent des installations différentes (c’est pratique le boulot pour ça). Et il est temps de vous livrer une nouvelle tournée 🙂

Xtrabackup et erreur « Too many open files »

« Petite » sauvegarde à faire d’une instance Mysql de 350Go. J’utilise xtrabackup de Percona, outil magnifique mais qui s’est heurté à l’erreur suivante quand lancé avec un utilisateur particulier :

180503 17:44:40 >> log scanned up to (29626811378630)
180503 17:44:41 >> log scanned up to (29626811379886)
InnoDB: Operating system error number 24 in a file operation.
InnoDB: Error number 24 means 'Too many open files'

J’ai du ajouter un petit fichier dans le dossier /etc/security/limits.d/ avec le contenu suivant :

mysql-1 hard nofile 32768
mysql-1 soft nofile 32768

Vous pouvez adapter à vos besoins, pour ma part ça a suffi.

Extlinux, VPS SSD OVH et mauvais noyau au boot

Je suis utilisateur d’un VPS SSD OVH installé initialement en Debian 8 pour le site web de mon équipe « gaming ». Lors du passage de Jessie à Stretch, monsieur continue d’utiliser le noyau 3.16 de Debian Jessie, ce qui n’est pas des plus propres. En fait, l’installation repose sur extlinux au lieu de GRUB (j’ai pas de troll à sortir là-dessus, désolé), et je modifiais le fichier /boot/extlinux/extlinux.conf sans succès. En fait, le fichier à modifier est /extlinux.conf :

default linux
timeout 1
label linux
kernel boot/vmlinuz
append initrd=boot/initrd.img root=/dev/vda1 console=tty0 console=ttyS0,115200 ro quiet

L’astuce « propre » a été finalement trouvée sur le forum OVH, avec création de liens symboliques pour à priori pouvoir supporter les mises à jour proprement sans impacter la suite des mises à jour.

Afficher les processus qui consomment du Swap

Un serveur tabasse régulièrement son swap sans qu’on aie pour l’instant la cause profonde sachant qu’il a largement de quoi rester en RAM pour bosser. Pour afficher quels processus consomment du swap, on peut utiliser le petit one-liner suivant :

for file in /proc/*/status ; do awk '/VmSwap|Name/{printf $2 " " $3}END{ print ""}' $file; done | sort -k 2 -n -r | less

UPDATE: Aeris m’a proposé sur Twitter une version que les nerds qualifieraient de plus élégante, puisque awk fait tout le taf sans la boucle for :

awk '/Name/ {printf $2} /VmSwap/ {print " ",$2}' /proc/*/status |sort -k 2 -n -r |less

Comparer deux arborescences pour détecter des fichiers modifiés

Une routine crade, lente, mais utile pour tenter de détecter des traces d’attaques sur des fichiers :

find original/ -type d -exec md5sum {} \; |sed -e 's/^original/infected/' |md5sum -c |grep -Ev "OK$"

Plus que jamais, pitié, mettez à jour non seulement le CMS lui-même, mais aussi les plugins.

Virtualbox, USB3, erreur bizarre lors du l’ajout d’un disque

Sur le PC du boulot, Full USB3, je dois brancher un disque dur externe à la VM Virtualbox, je me prend un joli fail :

En fait, il faut faire attention au type de contrôleur dans la configuration de la VM (nécessite le pack d’extensions à la licence limite) :

Faut mettre full USB3 pour tout le monde, et ça marche beaucoup mieux curieusement 🙂

« Le nom de fichier est trop long ou invalide » sous Windows

Ceci est la source de l’astuce précédente. Un dossier de série à transférer (bouh pirate toussa), certains titres contiennent des « ? », pas surprenant le disque a toujours été manipulé sous Linux. Sous Windows pas de solutions, je suis passé sous Linux, en ligne de commande pour filtrer uniquement ces épisodes-là :

[seboss666@SebLBNvm /media/veracrypt1/Multimédia/Vidéos/Séries/Dragon Ball Z ]$ find . -name "*\?*"
./083 Doit-on sauver Vegeta ?.mkv
./087 Sangoku tiendra-t-il sa promesse ?.mkv
./121 Qui est ce mystérieux guerrier ?.mkv
./131 Qui sont les cyborgs ?.mkv
./166 Pourquoi un tournoi ?.mkv

[seboss666@SebLBNvm /media/veracrypt1/Multimédia/Vidéos/Séries/Dragon Ball Z ]$ find . -name "*\?*" -exec cp {} /media/seboss666/Stockage_Externe/Séries/DBZ/ \;

Tada ! C’est chiant Windows. Ceci dit, Thunar m’a sorti la même erreur une fois arrivé sur mon laptop (probablement le NAS ce coup-ci, à tout le moins le CIFS). J’ai pas cherché à comprendre, j’ai renommé les fichiers avant de les transférer #PayeTaFlemme

Fusion d’images avec ImageMagick

Pour le journal de bord de mes vacances, j’ai pris deux photos d’une carte de visite d’un restaurant que je recommande volontiers si vous vous baladez un jour à Roses. Deux problèmes, les photos sont à la verticale et j’aimerais les fusionner. J’aurais pu perdre du temps dans le GIMP nouvelle génération mais j’ai voulu plutôt bricoler en ligne de commande :

convert carte_visite_resto_1.jpg -rotate 270 carte_visite_resto_1_rotated.jpg
convert carte_visite_resto_2.jpg -rotate 270 carte_visite_resto_2_rotated.jpg
montage carte_visite_resto_*rotated.jpg -tile x1 -geometry +0+0 carte_visite_resto.jpg
convert carte_visite_resto.jpg -resize 1920x1080 -quality 85 carte_visite_resto_resized.jpg

C’était beaucoup plus rapide que de faire ça avec le touchpad 🙂

Lancer vlc avec l’utilisateur root

Par défaut pas le droit, mais c’est possible avec un hack dégueu :

sed -i 's/geteuid/getppid/' /usr/bin/vlc

Évidemment je recommande pas la modification de binaires à la volée, surtout que ça sautera à la prochaine mise à jour…

Désactiver les rétroliens sur vos articles WordPress

Grosse méthode de bourrin, pratique si vous n’en avez rien à foutre des rétroliens (surtout qu’il y a un historique de sécurité pas folichon), et que vous avez beaucoup d’articles. Ça se passe dans Mysql :

MariaDB [c0blog]> update wp_posts set ping_status = 'closed';
Query OK, 1015 rows affected (0.06 sec)
Rows matched: 3466 Changed: 1015 Warnings: 0

Si vous utilisez des plugins de cache quelconques, vous devrez peut-être avoir à les flusher, je vous recommande d’utiliser l’excellent wp-cli pour ça, ça fait le café pour vous (vous pouvez même vous en servir pour lancer les requêtes sur votre base de données).

Nettoyer/convertir le contenu d’une cellule dans Excel/LibreOffice Calc

Dans le cadre de tests de performances d’une nouvelle plateforme, j’ai rejoué le trafic avec goreplay et compare les temps de réponses retournés par Apache. Pour ce faire, j’importe les logs dans Excel, ce qui permet de prendre la ligne suivante :

1.1.1.1 - - [16/Jul/2018:16:02:45 +0200] "GET /images/produit-1/1/7/8/mon-produit-favori-2345890.jpg HTTP/1.1" 200 14932 "http://www.mondomaine.fr/mon-produit-favori-fr-1-feuille.html" "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36" PID=24834 T=3258 XF=[-] H=1.1.1.1

Et de me faire une colonne par élément (éléments séparés par un espace, Excel s’en accomode très bien). Pour pouvoir faire un graphique sur le temps de réponse d’éléments récurrents, il faut convertir le « T=xxxx » qui est une chaîne de caractères, en entier numérique. La formule pour ça est simple :

=ENT(SUBSTITUE(<cellule qui contient T=>;"T=";""))

Et vous avez bien lu, la formule est la même dans LibreOffice 🙂 (adaptez en fonction de la langue, en anglais « ent » doit être « int » et « substitue », « subtitute »)

Tester un port distant sans telnet/netcat/nmap

Ça peut arriver, sur une machine fraîchement installée dont le réseau pose problème, si on a pas prévu les paquets dans le template, il ne sont pas forcément fournis d’emblée. Fort heureusement on est sous Linux, et il est possible de passer par /dev/tcp pour faire certaines manipulations :

$ timeout 2 bash -c '</dev/tcp/91.121.61.180/443 && echo Port is open || echo Port is closed' || echo Connection timeout
Port is open
~ 
$ timeout 2 bash -c '</dev/tcp/91.121.61.180/444 && echo Port is open || echo Port is closed' || echo Connection timeout
bash: connect: Connexion refusée
bash: /dev/tcp/91.121.61.180/444: Connexion refusée
Port is closed

vous pouvez éventuellement coller ça dans un alias 🙂


Voilà, c’est tout pour aujourd’hui, amusez-vous bien avec tout ça, à bientôt 😉

 

J’ai finalement choisi un Huawei P20 Lite

mercredi 25 juillet 2018 à 18:30

J’ai parlé il y a quelques temps maintenant des critères que j’attendais de mon prochain smartphone, dont la recette complète était jusque là quasiment impossible à trouver ou presque. Et ce malgré les annonces des nouveaux modèles des différentes marques en ce début d’année (l’article a été écrit avant Noël, le MWC est passé par là depuis). J’ai finalement jeté mon dévolu sur le Huawei P20 Lite, et il y a beaucoup à en dire, parce que les plus avertis verront que y’a plein de choses qui ne correspondent finalement pas.

ROM, support LTE, batterie, tu déconnes Seb ?

Ben oui, ne serait-ce que sur ces points-là, j’ai bien dérivé de ma checklist perso, alors pourquoi être revenu dessus ?

Évacuons déjà le point de la batterie, la bataille de l’autonomie semble perdue d’avance, les fabricants sont maintenant persuadés que Stockholm a fait son office et qu’on a définitivement accepté de tenir à peine une journée d’utilisation réelle d’un téléphone. Pour éviter la gronde, le mot magique est « charge rapide », et c’est ce qu’on trouve maintenant dans tous les modèles d’appareils sortis depuis un peu plus d’un an. Se battre contre des moulins à vent étant inutile, et le téléphone étant à priori équipé pour faire au moins aussi bien et certainement mieux que celui que j’ai dans les mains, j’accepte. Je suis déjà équipé d’une batterie externe de grande capacité si besoin.

LTE : Je ne prévois pas de changer d’opérateur dans les deux ans qui viennent. Pourquoi ? Parce que le forfait que j’ai actuellement me convient, que je vis sans trop de problèmes le fait de pas capter super bien chez moi (j’arrive tout de même à appeler des gens, le reste c’est WiFi power), je ne mange pas tout mon quota de data ou à peine (les vacances en Espagne vont être particulièrement pratiques pour valider ce point, même si j’ai en sus la clé 4G Free-update : faites une croix sur la vidéo, ça bouffe trop), et surtout, le point-clé, à l’heure actuelle Orange n’a déployé aucun site en 700Mhz, et n’est pas pressé de le faire puisqu’il dispose déjà d’autres bandes qui font déjà le travail, notamment dans les 800Mhz, donc pour eux pas de révolution (contrairement à Free qui n’a pas de 800Mhz et qui est bien content de pouvoir exploiter les 700 pour mieux rentrer dans les batiments). En clair, je peux me passer de 700Mhz au moins pour les deux ans à venir (du coup c’est un modèle à déconseiller aux abonnés Free Mobile).

ROM : certainement le point le plus critique selon moi, c’est d’ailleurs celui qui concentre le plus souvent mon attention, principalement la sécurité. Huawei retouche fortement Android, mais fait partie des bons élèves pour faire vivre ses appareils, et surtout les maintenir. Surtout, la version 8.0 Oreo embarquée est configuré avec Treble, ce qui doit leur permettre de mieux gérer les mises à jour futures, voire même les montées de version (pour rappel, Google continue de fournir des correctifs de sécurité jusqu’à Android 4.4…). De plus, des tests que j’ai lu aussi bien FR qu’US, la dernière version de la surcouche EMUI semble vraiment sympathique, et étant curieux de nature ben finalement pourquoi pas tenter l’aventure.

Update : malédiction, Huawei ferme le service pour obtenir le déverrouillage du bootloader. La conséquence ? Sans bootloader ouvert, pas de possibilité de changer de ROM. Je suis maudit avec les smartphones putain…

Mais il te reste des choses quand même sur ta liste ?

Ben oui, j’ai pas non plus complètement laissé de côté mes prérequis, même si j’ai fait des concessions. Commençons par le gabarit : si l’écran est annoncé monstrueux, en fait, ce modèle repousse les tailles des bordures à une taille minuscule, et surtout, l’étire en hauteur, ce qui fait qu’il est à peine plus grand que le OnePlus X :

Les boutons sur le P20 Lite (à droite) sont logiciels, donc dans l’écran. Il prend vraiment la place !

La longueur totale de l’écran est un poil limite par contre, c’est vraiment juste pour gérer de haut en bas avec le pouce. Les tristes qui n’ont que ça à penser d’un téléphone auront constaté le « Notch », ou l’encoche, à savoir que la zone avec le haut-parleur du haut, la caméra frontale, et le détecteur de présence ne prend pas toute la largeur et « recouvre » le haut de l’écran. Franchement, sachant que je n’utilise presque jamais mon téléphone à l’horizontale (à part dans Termux), j’en ai absolument rien à foutre, comme je le pense les gens devraient plutôt se battre sur l’autonomie ou la sécurité nom de dieu (en minuscule parce que je sais pas lequel jurer). Mieux, il y a une option pour masquer le haut de l’écran sur la hauteur de l’encoche, autant dire que si je rencontre des problèmes avec, j’ai de quoi contourner le problème. Il y a également une section « affichage plein écran » qui essaie de détecter les applications qui pourraient poser problème en mode plein écran, autrement dit celles qui ne prennent pas en compte l’encoche. Dans ce cas, l’application est entourée de bordures noires pour produire le même résultat, à savoir éviter les problèmes d’utilisation. Dans ce menu on peut choisir explicitement d’activer ces bordures ou pas pour chaque application détectée.

Concernant les performances, ben c’est du récent, comparé à mon X sorti en 2016 dont la puce principale remontait à fin 2014, évidemment, quad core à 2,3Ghz, plus du quad core 1.7Ghz (je cherche encore l’intérêt pour l’économie d’énergie), ça fait du bien, même si ce n’est pas du haut de gamme, les deux couples sont en Cortex A53, ça assure le boulot. Les 4Go de RAM ne sont malheureusement pas de trop vu que les développeurs sont devenus des putains de grosses feignasses qui optimisent leurs applis avec le cul. Côté stockage, je dispose de 64Go en interne, avec ma MicroSD de 32Go je ne saturais déjà pas la mémoire interne du OnePlus X, donc de ce côté-là, RAS.

Au delà de l’expérience utilisateur, j’ai indiqué que Huawei était un bon élève sur les mises à jour de sécurité, aidé certainement par Treble qui réorganise Android pour justement intégrer plus rapidement les correctifs, en tout cas c’est l’objectif que veut atteindre Google qui pousse les fabricants au cul. L’interface est effectivement épurée mais s’éloigne parfois pas mal d’Android Stock (pas de tiroir d’applications par défaut, zone de notifications custom…). Ce n’est pas si choquant, évidemment c’est une nouvelle organisation à apprendre pour certains menus, après tout, certains sont perdus sur Android Stock quand ils n’ont connu que Samsung (et pourtant Touchwizz ça a été une tannée pendant pas mal de temps, et je trouve que ça le reste encore sur plusieurs points avec leurs applis en double).

J’ai un port USB-C, fini de savoir dans quel sens brancher le téléphone, évidemment je vais devoir racheter du câble parce que j’en ai partout en microUSB dans la maison, canapé, lit, voiture, batterie externe, je vais devoir me trimbaler avec le câble principal le temps de refaire le plein. J’ai déjà géré la voiture, le bloc fait 2.4A, pour la charge rapide, appréciable et pas que pour moi, et en bonus le câble gère aussi la data (c’est pas gagné avec tous les chargeurs et tous les câbles). Côté connectique j’ai également la prise jack, pratique quand le casque Bluetooth tombe en rade de batterie 😛 Bluetooth qui n’est qu’en 4.2 et pas 5, un peu dommage mais le temps que je m’équipe sur cette norme, j’aurais probablement encore changé de téléphone d’ici-là. J’ai le WiFi AC aussi, cependant je ne risque pas de vous en parler de sitôt j’ai même pas de 5Ghz pour le wifi N sur la Freebox Mini 4k. Je n’en ai pas non plus sur le laptop, bref, faudra patienter pour les tests.

Et pour les derniers éléments à savoir, on a deux objectifs pour l’appareil photo au dos avec flash led, du NFC que je me suis empressé de désactiver, et le lecteur d’empreintes qui est d’une simplicité déconcertante à configurer, et qui fonctionne incroyablement bien et vite : à peine effleuré la zone avec un des doigts configurés, l’écran est déverrouillé. En tout cas, il est placé à un endroit qui ne me déplaît pas, en central à l’arrière il tombe bien sous le doigt. Si vous êtes lecteur depuis longtemps ici j’avais évoqué le cas d’un Acer de dépannage qui avait son bouton de verrouillage à cet endroit, et j’avais aimé ça. Bonus, ça détecte également les mouvements, je peux dérouler les notifications en slidant vers le bas.

Qu’est-ce qui t’a fait chavirer avec un tel constat finalement ?

C’est con, mais en fait, j’ai pu voir et avoir le téléphone dans les mains et l’essayer pendant plusieurs minutes en magasin, je connais donc son poids, sa taille, et j’ai pu juger de la qualité de l’écran, la réactivité du tactile, de la relative faiblesse du haut parleur (dans le magasin c’était pas un truc de ouf). J’avais entièrement fait confiance aux articles quand j’ai acheté le OnePlus X, tout comme j’avais fait confiance aux articles pour le HTC One S. Cette « expérience » m’avait donné envie de jouer différemment cette fois. Et en plus, j’achète dans une boutique physique en France, qui ne coche pas par défaut l’envoi de pubs sur SMS ou mail mais seulement la facture au format numérique (coucou Conforama, prenez des cours), le téléphone n’est pas verrouillé opérateur, c’est la version d’origine constructeur. J’ai pu également comparer avec d’autres appareils dans la même gamme de prix, et avec d’autres moins chers mais aussi plus chers. Bref, on a l’impression d’acheter en meilleure connaissance de cause qu’avec de simples descriptions et photos, même si les éléments liés à l’autonomie ou les détails du SoC sont plus appréciables quand ils sont connus et testés avant l’achat (car on sait que la capacité de la batterie ne fait pas tout, pareil pour la fréquence CPU). Le fait est que j’ai pu lire directement les specs avec mon OnePlus X dans le magasin, merci GSMArena, et vérifier en détail les points faibles des modèles que j’ai comparé. Pour compléter l’équation j’avais déjà pu apercevoir dans le passé la qualité de finition des modèles précédents, on utilise des P8 Lite au boulot pour les téléphones d’astreinte.

Et alors, t’en est content ?

Je l’ai acheté juste avant de partir en vacances, j’ai pu tester l’écran sur le terrain en Espagne. En très fort soleil, le LCD fait un peu moins bien que l’AMOLED, mais sinon, il est de très bonne qualité et reste lisible. J’ai peut-être les yeux fatigués, les réglages de couleurs par défaut ne m’ont pas choqué plus que ça, on voit quand même la différence côte à côte, mais si vous voulez corriger ça, il y a des réglages possibles dans les options, c’est plutôt appréciable.

Pas de bol par contre, le téléphone ne voit pas mon point d’accès WiFi si je masque le SSID, c’était déjà le cas du X. Pour reparler du laptop, le MTP fonctionne correctement sous Linux et rapidement (un problème récurrent avec les fabricants qui ne respectent pas les normes), j’ai pu transférer toutes les données sans gros problème, et comme pour tous les déménagements, j’en ai profité pour faire un peu de ménage.

On se fait vite aux spécificités de l’interface, on sent rapidement qu’elle n’est pas là pour vous mettre des bâtons dans les roues. J’étais un peu gêné par l’absence du tiroir d’applications, avant de découvrir qu’on pouvait le rétablir dans les options (c’est au fur et à mesure que je découvre les pépites d’EMUI). Il y a des choses qui semblent bien pensées, d’autres moins. Les menus de permissions sont devenus un vrai bordel par rapport à Android 6, j’ai désactivé beaucoup de choses qui me semblaient peu pertinentes, mais l’application galerie par exemple ne fonctionne plus parce qu’elle n’accède plus au micro. Vous chercherez à comprendre pourquoi, moi j’ai lâché l’affaire et installé Leafpic.

Tiens d’ailleurs, j’ai tenté une aventure : me passer de mon compte Google, et d’utiliser le combo F-Droid + Yalp pour pouvoir exploiter les applications open-source et celles du Play Store. Le problème c’est qu’au moment de l’installation la version présente dans F-Droid de Yalp est pétée à cause de mises à jour sur la sécurité TLS. Une fois passé ce blocage (on install l’apk corrigée depuis Github), jusqu’ici je n’ai pas rencontré de souci particulier, mais il faut dire que les services Google Play sont déjà présents sur la bête, contrairement à certains modèles chinois qui ne sont pas validés par Google. J’y reviendrai tout à l’heure.

Concernant la couverture réseau, j’arrive à capter mieux chez moi qu’avec le OnePlus X, mais vraiment : là où j’accroche à peine du edge, je descend rarement sous la 3g, c’est le jour et la nuit, même si la puissance du signal est bien faible, là je peux rester à mon bureau et appeler quelqu’un quand la voix coupait tout le temps. Dans la majorité des cas là où ça coinçait avec le X, ça fonctionne avec le P20 Lite, et j’accroche plus souvent la 4G ce qui est appréciable.

Avec mes usages actuels, la batterie tient pratiquement deux jours, merci justement l’accroche réseau qui fait que j’étais capable de perdre 10% entre le moment où je le débranche en me levant, et le moment où je pars de chez moi, soit environ une heure. Pour situer, avec 1h de podcast/musique plus jeu/écriture le matin et le soir, plus la lecture de RSS le midi, une fois arrivé à la maison le X affichait péniblement 20% de batterie. Je viens de faire l’essai avec le P20 Lite j’ai 70%. J’ai joué pas mal avec avant d’aller me coucher, il reste 54%. Certes ce n’est pas à PUBG que je joue… Il y a cependant quelques tâtonnements : la gestion des applications en arrière-plan est particulièrement agressive, VLC se fait couper la chique par défaut quand je verrouille l’écran. J’ai du me rendre dans la gestion des applications, passer la gestion de VLC en mode manuel, et laisser activé la plupart des options. Mais ça ne suffit pas toujours et plusieurs applications peuvent subir les foudres du gestionnaire d’énergie. J’ai par exemple dû « déverrouiller » l’application SNCF pour avoir les notifications de trafic…

L’appareil photo… Ben disons qu’il est correct, il est plus réactif que le OnePlus notamment sur l’autofocus, du coup je rate moins souvent une photo (moins de flous), il se paie le luxe de faire de meilleures vidéos que la GoPro, il s’en sort aussi un peu mieux en faible luminosité. Pour vraiment voir le résultat, autant vous rediriger vers le test d’FrAndroid, y’a également le reste qui est abordé.

Maintenant, y’a deux ans d’écart entre les deux, on peut soupçonner OnePlus d’avoir également puisé dans des composants éprouvés donc ça pourrait être plus que deux ans, on a fait pas mal de progrès de ce côté-là, aussi bien des progrès logiciels que des capteurs et des optiques. L’appli photo/vidéo du P20 Lite est assez différente de l’appli Android Stock ainsi que de l’appli OnePlus. Et là j’ai un reproche à faire aux appareils qui embarquent plusieurs objectifs : le boulot de composition des éléments récupérés par les deux capteurs sont à la charge de l’application, mais il n’y a pas de standards pour ça, car chaque fabricant va créer une recette différente en fonction de la finalité (ajouter un meilleur zoom, améliorer la 3D, mieux gérer la lumière, le HDR…). Moralité, c’est pas évident de pouvoir utiliser une application photo tierce tout en tirant le meilleur de l’installation. Ce qui veut dire que lorsqu’on voudra prolonger la durée de vie du bigophone, son utilisation complète et optimale sera plus ardue (déjà qu’il faut se battre avec les pilotes propriétaires…).

J’ai expliqué plus haut vouloir faire l’expérience F-Droid + Yalp. Ça fonctionne bien une fois les premiers tâtonnements écartés, le problème de version réglé, mais c’est tout de même moins fluide qu’avec le play store qui peut tout vous faire automatiquement, là, comme on télécharge les packages avant de les installer, il faut à chaque fois autoriser l’installation même des mises à jour. J’ai également du faire quelques réglages et exclusions, des applications installées via F-Droid qui sont aussi présentes sur le Play Store (je pense à Telegram entre autres). L’organisation des pages dans l’application est assez nébuleux pour moi pour l’instant, un peu comme F-Droid où pour afficher la liste des applications installées il faut se rendre… Dans les options. À part Radioline les autres applications fonctionnent correctement, en ayant désactivé pour beaucoup pas mal de permissions. Ceci dit la galerie par défaut embarquée n’a pas aimé du tout, en même temps depuis quand une application de galerie doit pouvoir accéder à mon micro et au GPS ? En gros, ça fonctionne, mais une fois de plus c’est une configuration que je ne recommanderai pas à un débutant du smartphone, ce n’est pas encore assez fluide/naturel (c’est mieux si on root, mais je ne rooterai pas le téléphone d’un débutant).

Donc oui je suis particulièrement content de ce téléphone, sur à peu près tous les points que je voulais corriger avec mon ancien pavé.

Et le OnePlus X t’en fais quoi ?

Il va passer à la moulinette Lineage, à savoir lui donner une seconde jeunesse logicielle avec une version plus récente d’Android. Certes on ne dispose que de versions nightly, donc potentiellement instables, et ça repose sur un bricolage entre le noyau Android 6 et le reste d’Android 7 à cause du fabricant, Qualcomm, qui a dit fuck sur les pilotes de sa puce pour les versions plus récentes de l’OS de Google. Quand on sait qu’Nvidia fournit encore des pilotes graphiques pour du matériel vieux de 10 ans… N’empêche que question sécurité ça sera toujours plus propre qu’un téléphone à poil depuis plus d’un an et demi.

Une fois que je serais satisfait de cette cure de jouvence, j’hésite entre le revendre à pas cher pour le principe et le donner à quelqu’un qui aimerait en avoir un sans en avoir les moyens. Parce que malgré ses faiblesses c’est un téléphone qui n’est jamais tombé en panne, dont l’écran est nickel (c’est encore la protection d’origine sur l’écran, qui était d’ailleurs pré-installée), dont la batterie commence certes à vieillir, mais quand vous n’avez pas payé pour… Je le conseille quand même à quelqu’un qui a une bonne couverture réseau autour de soi. Donc si vous êtes à la recherche d’un smartphone 5 pouces full HD et que vous n’avez pas de gros moyens, bippez-moi on devrait pouvoir en faire quelque chose 🙂