PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Quelques nouvelles astuces à exploiter sur Firefox

vendredi 18 janvier 2019 à 18:30

Parmi quelques volontés pour la nouvelle année, j’ai envie de parler un peu plus souvent de ce qu’il y a de bien dans Firefox, histoire de contre-balancer le bashing permanent contre le dernier bastion de la résistance d’un Web décidé par Google (et encore on pourrait faire un article complet sur le fait que c’est déjà le cas). J’ai découvert ou redécouvert récemment quelques bidouilles bien sympa qui permettront de gagner en confort, alors je partage 🙂

Pour rappel certaines fonctions ne sont disponibles que via des paramètres qui sont cachés par défaut (pas de case à cocher dans les options ou de bouton à cliquer). Pour ça il faut ouvrir un onglet vierge, saisir « about:config » dans la barre d’adresses (et pas la barre de recherche !), et valider le fait qu’on va faire attention :

Désactiver le rafraîchissement automatique des pages

Est-ce que ça vous est déjà arrivé de voir ça sur des sites journalistiques, ou la page est rechargée pendant que vous lisez, perdant parfois le paragraphe où vous vous trouvez ? C’est un vestige d’une pratique peu reluisante visant à gonfler artificiellement le nombre de vues d’un article histoire de maximiser le nombre de publicités affichées, et donc les revenus publicitaires associés. Sachant que c’est pratiquement inutile aujourd’hui, donc à part faire chier les lecteurs qui sont déjà nauséeux lors de la navigation avec cet abus de publicités, ça ne sert à rien. Fort heureusement, Firefox dispose d’une option cachée pour ça :

accessibility.blockautorefresh;true

A basculer sur true d’un double clic 🙂 Vous verrez dès lors un bandeau apparaître quand un site sera bloqué (avec un bouton pour autoriser si besoin) :

Une lecture améliorée avec le zoom et le mode lecture

A l’heure des écrans haute densités (avec bientôt la 4k sur mobile), certains sites qui ne sont pas déjà optimisés pour ces affichages sont illisibles ou presque, le texte étant notamment beaucoup trop petit pour être lu correctement sans s’abîmer les globes oculaires. Ca m’arrive plus souvent maintenant que ce soit sur le laptop en 14 pouces full HD ou le gros pc avec son écran 4k. Si vous êtes face à un tel site, ne fermez pas trop vite l’onglet, il est possible facilement d’utiliser certaines fonctions intégrées du navigateur.

La première, c’est le zoom. Soit avec Ctrl+Molette <haut|bas>, soit via des contrôles qui sont par défaut dans le menu principal mais qu’on peut rajouter à la barre d’outils via le menu « Personnaliser… ». Ce zoom concerne principalement le texte, mais d’autres éléments sont aussi grossis si besoin. Fait agréable, il garde en mémoire le niveau de zoom pour chaque site visité, de sorte que vous n’avez pas besoin de recommencer la manipulation si vous devez revenir sur le même site.

L’autre, c’est le mode lecture. Cette fonction d’abord orientée mobile permet d’épurer la page visionnée pour n’en garder que le texte, quelques images en fonction de la mise en page, et l’affiche sur un fond uniforme avec une taille augmentée mais méchamment. Pour l’activer il y a un tout petit bouton dans la barre d’adresses qui s’affiche quand il détecte la structure de texte :

Ce mode peut être paramétré pour s’afficher en sombre comme ici, en clair par défaut, ou automatiquement en fonction de l’heure de la journée. Je vous laisse essayer sur les sites d’informations pour voir à quel point ça réduit l’agression visuelle.

Déterminer les éléments gourmands en ressource dans le navigateur

L’une des forces des navigateurs modernes, ce sont les extensions qu’on peut leur adjoindre (d’ailleurs vous avez peut-être lu mon dernier inventaire en date qui a déjà évolué, en partie grâce aux commentaires constructifs qui y ont été postés). Seulement voilà, parfois certaines extensions se comportent mal. C’est aussi le cas de certains sites qui sont devenus de vraies applications lourdes dans tous les sens du terme. Si votre système vous dit que Firefox est en train de monopoliser les ressources, un tout nouveau gestionnaire de performance a été introduit pour identifier et éliminer les vrais coupables. Pour y accéder, il faut ouvrir un nouvel onglet, et saisir « about:performance » dans la barre d’adresses. Vous devriez alors avoir un affichage voisin de celui-ci :

Pour l’instant les interactions sont minimales mais ce gestionnaire est amené à s’étoffer dans les prochaines versions.

Spécifique Linux : supprimer la barre de titre

Il n’y a rien de plus frustrant la première fois qu’on arrive sous Linux et qu’on lance son navigateur préféré. En effet sous Windows, il n’y a pas de barre de titre et les onglets sont au plus haut, pour pouvoir maximiser l’espace visible des pages web. Mais pas sous Linux, ou vous avez une barre de titre plus ou moins épaisse (qui comprend aussi les contrôles de fermeture de la fenêtre, qu’on voit aussi sous Windows). Eh bien à priori au moins pour les bureaux GTK3 (Gnome, Cinnamon, MATE), il est possible, via le menu « Personnaliser… », de masquer la barre de titre pour retrouver cet espace vertical comme sous Windows :

décocher pour masquer

Ceci dit l’option existe aussi pour Windows, elle est juste décochée par défaut 🙂

Code source de la sélection

Le souci avec les outils de dev de Firefox, c’est que l’analyseur de contenu formate correctement le code pour faciliter sa lecture. Mais voir le code brut peut renseigner sur le bordel qui se trouve derrière en matière de développement, et parfois mettre plus facilement en lumière un bug applicatif.

Pour ça, il suffit de copier une section de la page, et faire un clic droit, Code source de la sélection. Et là vous allez pouvoir découvrir des choses 🙂

Firefox Screenshots, c’est mieux avec la souris

Avant pour faire une capture d’écran complète d’une page, y compris ce que vous ne voyez pas à l’écran, on avait la console de dev et la commande screenshot --fullpage capture.png, pas très accessible pour ceux qui ne sont pas habitués à la fois à la console de développement et à la ligne de commande. D’autant plus que dans les dernières versions de firefox cette console a disparu (ou alors ça fonctionne plus sous Linux et je suis pas au courant).

Mais Mozilla a proposé un nouvel outil récemment, Firefox Screenshots (et pour une fois on a la doc en français), qui est bien plus pratique et efficace et mériterait d’être un peu plus mis en avant. Mais sur mon pc boulot, c’était désactivé, pour ça il faut retourner dans about:config, et agir sur la clé suivante :

extensions.screenshots.disabled;false

Elle doit être à « false », et pas besoin de redémarrer pour voir l’option dans le menu des actions de pages comme le montre les captures de la documentation 🙂


Voilà, je vais m’arrêter là pour aujourd’hui, si j’en trouve d’autres vous imaginez bien que j’en ferai un nouveau billet, en attendant si vous en avez certaines à partager hésitez pas, les commentaires sont là pour ça 🙂

Le Web d’aujourd’hui serait-il le même sans Google ?

dimanche 13 janvier 2019 à 10:30

On a beau dire que Google est devenu le mal à cause de son fonctionnement basé sur le profilage de la population à des fins mercantiles (et aussi d’espionnage, les USA s’étant doté des lois pour pomper toutes les données collectées), je pense que personne ne se rend vraiment compte à quel point il est devenu incontournable pour le Web actuel. J’aimerai donc mettre en lumière quelques points pas très visibles mais essentiels je pense pour comprendre comment on est arrivé là.

Le Web a existé avant Google. Huit ans sans lui pour être exact. Et c’était… Alors j’ai commencé un an avant son arrivée. Et à l’époque Google a démarré comme moteur de recherche. Et seulement ça. Mais il a rapidement eu du succès parce que comparé aux autres moteurs existants qui cherchaient à gagner de l’argent en vous présentant une tétrachiée de contenus en plus (ce qu’on appelait à l’époque des portails), Google se concentrait sur la recherche, les résultats, sans fioriture, un design qui perdure encore maintenant malgré quelques ajouts. Il faut dire qu’on avait pas de très haut débit à l’époque, donc chaque octet comptait.

J’ai commencé vraiment à utiliser le moteur de recherche Google en 2002 (grosso modo avec mon premier pc à moi et ma connexion 56k AOL pourrie). A ce moment-là pour se rémunérer, vu qu’on ne paie pas pour l’utiliser, Google propose AdWords, un programme de publicité via l’achat de mot-clé, c’est à dire que vous pouviez payer des « mots-clés » pour remonter dans les résultats de recherche des utilisateurs. Déjà à l’époque, face aux parts de « marché » grandissante du moteur, ça a fait râler un peu, mais le référencement n’était pas aussi Google-centré que maintenant. Ce programme existe toujours à l’heure actuelle, cependant les résultats « sponsorisés » de la sorte sont clairement affichés comme tel. Mais ça marche, Google amasse déjà une manne financière importante. Vient naturellement ensuite AdSense, la régie publicitaire de Google. Il ne s’agit plus de demander aux gens de payer pour apparaître dans les résultats du moteur de recherche, il s’agit de rémunérer les sites qui donnent de la visibilité aux autres via de la publicité (ceux récupérant cette visibilité payent évidemment). Google fournit les outils, et prend sa commission au passage. Carton également, à l’époque les montants étaient facilement élevés même avec un trafic un peu faible. Mais la publicité n’était pas encore pernicieuse comme elle peut l’être aujourd’hui.

A ce moment-là, un certain Mozilla signe un partenariat avec Google pour lui reverser une partie des revenus issus des recherches effectuées directement au sein de Firefox, le tout nouveau navigateur web de la jeune fondation. Firefox vient décrasser un domaine pourri par Microsoft avec un Internet Explorer 6 largement majoritaire (on parle de plus de 90%), navigateur que Microsoft a annoncé laisser volontairement figé, laissant les innovateurs sans moyens pour proposer de nouvelles expériences aux utilisateurs. C’est pour ça que Firefox a été plus que bienvenu, et que vous avez certainement entendu parler de cette époque pré-firefox avec dégoût. Ou que vous lisez parfois « Chrome is the new IE », mais j’y reviendrait plus loin. Et avec une part de marché qui est allé jusqu’à 50%, autant dire que la puissance de Firefox a bien bénéficié à Google.

La même année que la sortie de la version 1.0 de Firefox justement, Google annonce et met à disposition Gmail, une solution de courrier électronique à l’interface elle aussi épurée. C’est à partir de ce moment-là je pense que le « compte Google » prend vraiment son envol, permettant de centraliser sur une seule identité toute l’activité des services Google que l’on utilise. Dans la vie de Gmail, un point qui a fait grincer des dents : Google annonce vouloir lire le courrier pour proposer sur l’interface web de Gmail des publicités ciblées. Demandez à n’importe qui s’il accepte que le facteur ouvre son courrier pour lui rajouter des flyers dans les enveloppes… En 2004 sort aussi un certain Google Maps. Pas grand chose à dire à part que son utilisation explosera réellement avec la navigation GPS sur Android, un service de plus incontournable là encore.

Je ne vais pas énumérer la totalité des services que Google a pu créer ou tuer depuis sa création, mais je vais en noter trois en particulier qui par la suite auront selon moi un impact majeur sur toute la planète qu’elle soit professionnelle ou non : le rachat de YouTube en 2005 et son explosion dans les années qui suivent, le rachat et la publication d’Android en 2007 (avec le succès que l’on sait, en 10 ans Android équipe plus de 70% des appareils mobiles du marché) et la publication du navigateur Google Chrome en 2008, avec désormais une part de marché qui frôle les 70% toutes plateformes confondues.

La principale particularité de la majorité des services que Google propose au public est qu’ils sont gratuits. Ils sont majoritairement financés par la publicité qu’une très grande partie des sites du web visibles affichent pour à minima se payer l’hébergement. Seules quelques fonctions parfois confidentielles mais essentielles pour les professionnels sont payantes (si vous n’avez pas entendu parler du récent tour de vis sur les accès à Google Maps, c’est à se marrer). Le fait que Google soit capable d’opérer tous ces services sans que vous déboursiez un seul centime devrait déjà vous effrayer. En l’espace de vingt ans, il a ancré l’idée d’un web gratuit pour ses utilisateurs (en dehors du prix de la connexion Internet), ce qui a déjà valu son lot de tensions, de fermetures de services qui n’attirent pas une masse critique, et l’absence de prise de conscience pour les plus jeunes que tout n’est pas gratuit dans la vie. Et je ne vais pas revenir sur tous les problèmes que posent Google Chrome.

Mais Google n’est pas uniquement un gros profiteur. En fait, le grand public n’a pas forcément connaissance de tout ce que Google a contribué pour qu’on aie un web moderne et plus sécurisé. Qu’on le veuille ou non, l’augmentation du trafic mobile (Google annonce régulièrement que les recherches depuis un mobile totalisent environ 50%, en augmentation légère mais constante dues à la maturité de Google Assistant), lié au fait que Google équipe 70% des terminaux mobiles du monde entier, lui donne une force de frappe d’expérimentation et de décision sans pareil. Ses datacenters ne sont pas clés en main mais reposent sur des technologies majoritairement open-source. Pour tirer le maximum de ses machines, Google a longuement expérimenté le noyau Linux et tenter d’en améliorer plusieurs points notamment au niveau du réseau, améliorations qu’ils ont très souvent reversé au projet mère, et tout le monde peut en profiter.

L’augmentation du trafic lié à la vidéo sur YouTube a poussé Google à mener des recherches sur la compression vidéo. En rachetant On2 Technologies, le géant a publié VP8, et le format Webm, un « substrat » du format mkv optimisé pour le web et le streaming. Si le VP8 est intéressant, il ne sera pas très utilisé en dehors de YouTube. Le VP9 doit prendre le relai du VP8 en réduisant le poids de moitié, un point essentiel notamment pour accompagner l’essor des contenus ultra haute définition. Sorti en 2012, et régulièrement raffiné depuis, le constat est le même que pour le VP8, il n’est pas très utilisé. Mais son aspect « sans brevet » va avoir une importance ici, puisque le VP9 servira de base aux travaux menant à l’AV1, une initiative beaucoup plus large que Google seul dans son coin. Les résultats de la création et du support de ce codec nouvelle génération ne se feront sentir que dans deux ans à priori, alors croisons les doigts pour que cette fois ce soit la bonne.

Aparté : le format d’image WebP, qui est dérivé des travaux sur le VP8 et le VP9, doit permettre des images plus légères à qualité égale par rapport au PNG ou surtout au JPG. Son support vient de se déployer dans Firefox et Edge. Il n’est donc pas idiot de se pencher sur le sujet.

Le web repose sur un protocole, une langue, qui s’appelle HTTP. La langue actuelle la plus répandue date de 1999. Et n’a pas évolué du tout depuis, ou alors tellement peu que le numéro de version n’a pas changé. Au point que vous pouvez toujours utiliser un navigateur web sorti il y a vingt ans pour contacter un site web d’aujourd’hui. Ça sera moche visuellement mais d’un point de vue purement protocolaire ça fonctionne. Le problème c’est que c’est un protocole lent, verbeux, et la multiplication des contenus dans une même page web provoque maintenant un réel gaspillage de ressources réseau et donc CPU. Via son navigateur Chrome, Google a expérimenté un remplaçant nommé SPDY. Les spécifications sont publiques, et côté navigateurs même Firefox finit par le supporter. Mais rien n’est standardisé. Cependant, SPDY va très très fortement inspirer le vrai standard qu’est HTTP/2, qui a été finalisé en 2015, et qui se déploie petit à petit (il est d’ailleurs exploitable sur le blog). Le gain est réel, et sur des réseaux mobiles contraints et instables c’est forcément bienvenu.

Google est également en train de préparer la suite, qui doit encore mener à de meilleurs performances, en la personne de QUIC. Ce même QUIC a servi de base à des travaux pour ce qui devrait aboutir à HTTP/3. Toujours sur le sujet des protocoles, via son hégémonie dans la recherche sur le web, la volonté de mettre en avant les sites avec chiffrement dans ses résultats a poussé beaucoup d’acteurs qui n’avaient que peu d’égard pour la confidentialité des échanges avec leurs utilisateurs se mettre en marche pour basculer sur le chiffrement. La réalité économique de ces conséquences a poussé certains acteurs à proposer de quoi répandre l’usage pour tous gratuitement, grâce à Let’s Encrypt. Au point que celui-ci devient un point de faiblesse s’il vient à tomber, car il est seul sur son créneau à être supporté par autant d’acteurs.

Quoiqu’on pense des travers actuels de l’apprentissage profond (deep learning), ou le terme que le grand public retient à savoir l’intelligence artificielle (j’ai déjà expliqué pourquoi je n’aime pas trop ce terme, et je n’ai pas changé d’avis, pour l’instant), Google s’en est servi partout dans ses outils, et n’a pas oublié de les publier en open-source pour que tout un chacun puisse s’en servir directement sans redévelopper de zéro. Si Google a développé ses propres puces matérielles dédiées à ces algorithmes, avec la perspective que ça soit exploitable par les cartes graphiques aux architectures friandes de calcul parallèle, tout le monde y gagne : Google en visibilité et en crédibilité dans le domaine, ainsi qu’en retour de développeurs qui eux de leur côté peuvent bénéficier d’outils avancés sans les années de recherche nécessaires, pour se concentrer sur leur produit final.

Et pour être impliqué dans le sujet au quotidien avec mes clients, le choix de Google de mieux référencer les sites « mobile-first » et surtout le HTTPS sur le moteur de recherche imposent à tous les sites de se conformer pour garder la visibilité des 90+% de recherches effectués sur le moteur du géant, visibilité sans laquelle il ne pourraient subsister quelque soit le modèle économique sur lequel ils reposent. Et moi-même je dois reconnaître que c’est important et pratique, mobile-first imposant une légèreté bienvenue dans une orgie de JavaScript aussi pourri qu’inutile (quoique malheureusement incontournable), et HTTPS, je vais pas vous refaire le tableau.

Et si je voulais encore mentionner un point important qui m’a fait déployer une configuration sur plus de 4000 serveurs chez LBN : sur Gmail vous étiez prévenus quand un mail vous avait été envoyé par un correspondant sans aucune forme de chiffrement ou de protection (contenu ou transport). En annonçant un traitement en deux étapes : d’abord une simple alerte, le temps de permettre aux expéditeurs de rentrer dans le rang, puis en classant en SPAM ceux qui n’auront pas agi. Autant vous dire qu’avec plus d’un milliard de comptes de réception, tous les sites marchands peu regardant de la confidentialité des échanges se sont vite alignés (je laisse volontairement de côté la contradiction confidentialité et Gmail, je note juste la conséquence pour l’intégralité de l’écosystème). Microsoft n’a pas mis longtemps à suivre sans pour autant communiquer sur le sujet, rendant évidemment les investigations compliquées pour comprendre leur classement, ce qui fait que maintenant une grosse partie du trafic lié au mail se fait de manière sécurisée. Quand au contenu ça c’est encore une autre histoire, ça fait plus de 20 ans qu’on arrive pas à faire accepter des outils qui existent, parce que ce sont des outils complexes pour le commun des mortels.

Et je suis sûr qu’on pourrait continuer comme ça longtemps, s’il était possible d’avoir des vrais retours on pourrait parler de l’initiative Project Loon, un réseau de ballons stratosphériques équipés pour fournir une connectivité 4G où les réseaux classiques sont absents (terrestres ou sans-fil), et où le satellite coûte trop cher. Si vous avez d’autres initiatives positives qui ont été initiées ou soutenues par Google, ça viendra facilement compléter le tableau (quelqu’un pour nous faire l’éloge de kubernetes ?).

On le voit donc, malgré ses très mauvais aspects sur le penchant économique du web, ou sur le profilage et la violation de l’intimité des individus, ses apports techniques sont impossible à oublier. Il n’est pas dit que les évolutions aient été aussi rapides, que le fruit de certaines recherches qu’ils ont mené de manière ouvertes l’aient été avec d’autres acteurs (on pense notamment à Microsoft qui a mis très longtemps à commencer à jouer dans la même catégorie, et encore les travers sont fréquents). J’attends encore de voir les effets de l’AV1 en dehors de nos PCs qui sont les seuls pour l’instant à avoir les épaules nécessaire pour le décoder (sans parler de l’encoder), mais il y a fort à parier que sans ça, la MPEG LA continuerait de saigner la planète entière pour l’utilisation de H264 et H265 pour la vidéo pendant de longues années. HTTP/2 ne serait peut-être pas encore une réalité. Les progrès du deep learning ne seraient pas aussi visibles, avec entre autres un IBM qui préfère se garder sa solution et la vendre clé-en-main.

Google est donc partout : il permet encore à une quantité non négligeable de sites de survivre via la publicité, son service de mail est utilisé par plus d’un milliard de personnes à travers le monde, j’ai déjà évoqué les 70% d’Android qui ont permis à Google en partie de répandre son navigateur pour maintenant plus des deux tiers des webonautes, YouTube compte plus d’un milliard et demi d’utilisateurs mensuels (public et créateurs). Bref, Google domine le Web et il y a peu de chances que ça change pour l’instant. Le problème commence à être visible : quand Microsoft dominait les accès aux Web, il a conditionné les capacités de celui-ci (au-delà de la différence de bande passante globale du réseau à l’époque). Microsoft domine encore le marché PC et les différents errements liés à Windows 10 (espionnage de l’intimité, instabilité des mises à jour, absence de contrôle sur ces mises à jour, tentative d’imposer ses outils) sont une plaie pour une quantité beaucoup trop importante d’utilisateurs pour que ça dure encore longtemps.

Pour l’instant si on avait surtout vu des développeurs feignants ne pas supporter correctement tous les navigateurs (en ne testant certaines fonctionnalités parfois peu finalisées que sur Chrome, par exemple), là Google commence à vous pousser indirectement vers ses propres outils en usant artificiellement de fonctions uniquement disponibles dans ceux-ci. Le dernier exemple en date concerne YouTube, et sa refonte qui ne fonctionne de manière fluide que dans le navigateur maison, en raison de choix techniques discutables pour un service de cette visibilité. En étant majoritaire, Google pense qu’il n’a plus à se soucier de respecter les concurrents. C’est une posture plus que détestable qui ne va pas dans le sens d’un écosystème ouvert ou les décisions sont prises à plusieurs de manière publique.

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Vous vous souvenez tout à l’heure quand je parlais de la maxime « Chrome is the new IE » ? Dans un monde nourri d’innovations, la monoculture est un problème, car un seul acteur dirige toutes les avancées. Même si artificiellement la base de Chrome, Chromium, est ouverte et les contributeurs nombreux, le logiciel final que les gens utilisent au quotidien contient plusieurs additions qui ne sont pas partagées et peuvent imposer leur loi. Quand Internet Explorer était seul, seul Microsoft avait le pouvoir de le faire évoluer, et avait fait le choix de ne pas le faire. Quand Internet Explorer 7 sort avec Vista en 2006, il ne fait que rattraper son retard sur certaines fonctionnalités (les onglets !) et le support de standards tout frais qu’avaient réussi à pousser Firefox et Opera via le W3C pendant ce temps-là, et que les développeurs avaient fini par adopter (on a eu droit à une période magnifique de hacks dégueulasses en JavaScript ou côté serveur pour pouvoir supporter à la fois les standards et Internet Explorer…). Donc laisser Google décider seul de l’avenir du Web, c’est très mauvais.

Par chance pour l’instant Gmail n’est pas aussi pénible que Microsoft sur le mail, jusqu’au jour où ils prendront la même direction et refuseront les quantités de mails qui ne viennent pas d’un gros fournisseur (en substance c’est ce que fait Microsoft maintenant sur Office 365 et c’est une catastrophe). Il est encore possible d’accéder à Gmail via des protocoles standardisés que sont l’IMAP (et même imposent l’IMAPS, soit le même mais chiffré, logique) et SMTP (même combat pour SMTPS), mais certaines fonctions non standards sont mécaniquement impossible à utiliser. Qu’est-ce qui empêche Google de supprimer ce support et imposer soit l’interface Web, soit les applications mobiles ?

Google impose déjà sa loi sur les smartphones Android, en forçant les constructeurs à pré-installer l’intégralité des outils Google pour se voir valider la commercialisation d’un téléphone. Il vient d’être condamné en Europe pour ça d’ailleurs, mais le contournement est pernicieux : si vous voulez valider un Android sans Google Assistant et sans Chrome par exemple, vous devrez… payer 40$ par appareil vendu. Une situation difficilement tenable commercialement parlant pour les fabricants qui continueront donc de permettre à Google de vous sucer le téléphone, mais Google pourra se cacher derrière l’argument que l’alternative existe. Avec ce comportement comment voulez-vous que des alternatives soient possibles et surtout soient vues par des utilisateurs majoritairement peu techniques qui n’installent en fait que très peu d’applications sur leurs téléphones ? Certains n’ont-ils pas pesté que Samsung faisait tout en doublon dans leurs smartphones, sans penser qu’ils n’avaient peut-être pas le choix ?

David Legrand réagissait en 2017 à la question du démantèlement de Google. Il n’était certes pas le seul, mais posait pas mal de bonnes questions et pointaient intelligemment du doigt pas mal de problématiques liées au géant et à son influence sur le monde pas seulement numérique mais physique. Contraint dans mon fauteuil pendant tout le mois de décembre chez ma mère, je n’ai pas pu m’empêcher de frissonner de peur en voyant les multiples publicités pour les enceintes connectées, aussi bien Google Home qu’Alexa d’Amazon, en pensant au pouvoir supplémentaire qu’on donne à ces sociétés privées américaines sur nos propres vies physiques (le sous-titre de cet article résume bien la situation et pourquoi on devrait les éviter comme la peste). Et la solution n’est pas simple, comme ces outils sont gratuits tout le monde les utilise, et on n’imagine pas devoir payer pour l’intégralité de ce que propose le Web aujourd’hui. J’ai du mal à voir un avenir radieux pour tout ça, pas pour moi, j’ai les capacités techniques et financières de m’en sortir, mais pour le restant du monde…

La fibre chez ma mère, chapitre 2 : la box Videofutur

mardi 8 janvier 2019 à 18:30

Dans l’épisode précédent, on a traité de l’installation de la box internet, qui s’est pas trop mal déroulée dans l’ensemble même si pour l’instant je peux pas faire grand chose pour la configurer. Ça fonctionne très bien au niveau réseau, c’est déjà pas mal, donc je me suis penché sur le deuxième morceau de l’abonnement : la box Vidéofutur qui compose l’option TV de l’abonnement. Une fois de plus l’opération n’a pas été de tout repos.

Un matériel sobre, élégant, simple à installer

Je déballe le boîtier, il est particulièrement simple : un pavé noir brillant, avec juste un logo Fibre Videofutur sur la devanture, et le strict nécessaire en connectique à l’arrière, à savoir l’alimentation, l’Ethernet, l’HDMI, la prise antenne TNT, un port USB3 Type A, un SPDIF. Une télécommande accompagne la boite, ainsi que tous les câbles pour le raccordement à la box internet et à la TV. Oui, le câble HDMI est fourni, ce qui est déjà remarquable en soi, le câble Ethernet est d’une longueur plus que confortable ce qui évite d’avoir à garder les deux proches l’un de l’autre.

Check le claquettes/chaussettes

Concernant la face avant, c’est clairement trop simple. En gros, à part le logo qui n’est qu’un sticker, on a juste une diode pour dire allumé ou éteint. Pas d’affichage de l’heure ou de la fonction, du numéro de chaîne, etc. Rien. J’ai fini par mettre la main sur les spécifications techniques sur le site de Videofutur (image reprise de la page du site) :

À l’allumage, on panique la première fois en voyant le logo vidéofutur avec la télé qui indique 640×480. Mais C’est temporaire, on passe vite au 1080i. L’interface de démarrage est simple, tout est fait pour aller à l’essentiel. Les couleurs ne sont pas agressives, bref, c’est ça sent pas le renfermé. La détection du réseau est automatique. Dès la première étape ça nous demande de faire une mise à jour. J’obtempère, ça prend un certain temps à se déclencher, mais la mise à jour s’effectue quand même sans trop d’encombres. On revient ensuite à l’écran de démarrage en trois étapes : configuration réseau, définition du contrôle parental (on peut choisir le niveau à partir du -10 jusqu’à -18, contrairement à CanalSat ou c’est seulement -18), recherche des chaînes. Bizarrement le boîtier parle des chaînes TNT, je ne suis pas surpris qu’il ne trouve rien.

Le retour des surprises

Une fois ces étapes terminées on arrive à l’accueil, mais ça nous dit que le service est désactivé :

Ah. Je reprend mon PC, retourne sur l’interface client, effectivement par défaut le service TV est désactivé alors même qu’il fait partie de l’abonnement, et donc est facturé. Je n’ai pas d’explication concernant cette incohérence, mais c’est une autre étape non triviale qui mériterait d’être revue par NordNet, car ce n’est pas fluide. Mais c’est pas fini :

Voilà, potentiellement il peut y a voir un délai à l’activation, donc je m’apprête de nouveau à attendre. C’est le moment que je choisis du coup pour appeler le service client pour causer avec le technicien (autant mutualiser le temps d’attente). Après avoir abordé le cas de l’interface de contrôle (pour lequel je vais devoir attendre, encore), j’aborde les difficultés que j’ai avec la TV. Il faut dire qu’entre temps, l’interface client indique que le service est activé (sans avoir reçu le SMS), affiche la bonne adresse MAC, mais malgré les tentatives de redémarrage ça indique que le service est désactivé. Au passage, l’adresse IP attribuée à la box vidéofutur est dans la même plage DHCP que les autres appareils, là où d’autres opérateurs isolent le flux sur un VLAN dédié inaccessible aux utilisateurs. Je ne sais pas encore trop quoi penser de cette information, mais elle est là.

Le technicien m’oriente donc vers une réinitialisation, via le menu de contrôle avancé qui est protégé par le code de contrôle parental. Mais la box ne redémarrera jamais, le voyant rouge de la face avant clignotera face aux demandes de la télécommande mais sans repasser au vert. On passe donc à la vitesse supérieure : réinitialiser via le bouton reset qui est l’unique bouton physique présent sur le côté gauche du boîtier. On repart à zéro mais cette fois, à l’annonce d’une mise à jour disponible, le numéro est beaucoup plus élevé que celui indiqué la première fois. On refait donc toutes les étapes, cette fois à la détection des chaînes TNT il en affiche 64, oui la dénomination est trompeuse ce sont bien des chaînes via le réseau. Tout fonctionne !

Presque parfaitement, oui nouvelle surprise le guide des programmes met beaucoup de temps à afficher les informations de toutes les chaînes, ce qui n’a pas de sens étant donné le débit disponible. Au fur et à mesure des affichages ça se remplit, on a l’impression d’une fonction d’arrière plan à la priorité beaucoup trop basse.

Une interface fonctionnelle mais pas toujours agréable à l’œil

Au final l’interface n’est pas des plus agréables, pour une bonne raison : elle est trop remplie, choix a été fait de vouloir afficher beaucoup trop de choses à l’écran. L’interface est organisée à la manière d’une Xbox 360 : les fonctions sont regroupées en haut de l’écran de manière horizontale, chaînes en direct, replay, et les fonctions qui viennent du cœur de métier de Vidéofutur, la consommation de contenus à la demande : films, séries, il faudra du temps pour fouiller le catalogue mais je ne me fais pas d’illusions : en France, la vidéo à la demande est le parent pauvre de la chronologie des médias, sauf pour les contenus à l’achat à l’unité (Mission Impossible : Fallout est déjà dispo par exemple). Au passage les conditions et les tarifs devraient vous faire fuir rapidement, 5 balles à l’unité, lié au service, et en petites ligne ça correspond à une location longue durée de 5 ans. Oui, vous payez mais c’est pas définitif.

Il y a quelques applications annexes disponibles, mais à part YouTube vous pouvez repasser pour autre chose. Sans surprise pas question d’avoir une application Netflix, pour ne pas entrer en concurrence avec leur propre catalogue. RadioLine permet facilement d’accéder à certaines webradios étrangères, mais c’est la seule application audio. N’espérez donc pas utiliser votre installation pour diffuser votre catalogue provenant de votre service musical préféré.

En tout cas si l’agencement n’est pas spécialement aéré, c’est fluide, et ça fait plaisir, il ne faut pas 500 ans pour changer de chaîne, le guide des programmes s’affiche dans la seconde, pour ceux qui connaissent le décodeur CanalSat, la comparaison est impossible tellement la lourdeur et le lenteur de ce dernier somt importantes. Le contrôle du direct soufre par contre d’un tout léger retard à l’allumage. Celui-ci n’a pas besoin de disque dur externe pour fonctionner contrairement au Cube, ce qui me fait penser qu’il est équipé d’une mémoire flash interne pour remplir cette fonction.

Autre point agréable, les chaînes sont en Full HD pour plusieurs d’entre elles, là où CanalSat limite au 720p. Une contrainte qui peut se comprendre à cause de la méthode de diffusion, sur le satellite la bande passante coûte cher, très cher, ils seront contents de pouvoir basculer sur de l’AV1, ou de l’H265 s’ils sont masochistes sur les coûts de licence. Mais ça demandera de revoir le parc de matériel.

Pour finir, il y a une application de lecture multimédia (appelée mediacenter) là aussi simple, mais très fonctionnelle. Elle permet d’accéder au contenu d’un lecteur (clé USB, disque dur externe) branché à l’arrière, ou au partage réseau qu’aura effectué la box internet. J’ai pas fait une recherche exhaustive mais étant donné qu’elle affiche un support 4k, j’ai tout de même testé la lecture de quelques fichiers mkv full HD depuis mon disque dur externe en USB3 (encodés en x264), ça roule nickel. L’interface n’est pas des plus intuitives, mais elle se manipule aisément.

Dernier point un peu technique, avec l’ensemble bluray/home cinema défaillant de ma maman, sans surprise la VOD ne fonctionne pas à cause du HDCP qui ne peut pas être établi (ça fonctionne en branchant la box directement sur la TV). C’est un point que je vais devoir garder en tête pour plus tard, ça ne bloque pas les autres fonctionnalités, et vu le catalogue, de toute façon ma mère va s’en passer, surtout que pour l’instant Canalsat reste à côté le temps que ça soit remplacé.

Une offre qui peut être adaptée pour des besoins simples

Le moins qu’on puisse dire c’est que ça va a l’essentiel. Les chaînes principales sont couvertes, l’offre de vidéo à la demande est clairement un plus, mais on tombe particulièrement vite sur les limitations. L’interface est assez chargée mais pourtant elle ne vous perds pas sous des tonnes de fonctions ou d’informations inutiles. Bref, aux premières captures d’écran je m’attendais à bien pire, quand j’ai pu voir l’interface du Cube Canalsat ou des anciennes Livebox Orange. Si vous avez des éléments à partager sur les box des autres opérateurs, faites-vous plaisir dans les commentaires. J’essaierai quand même de creuser un peu plus loin les capacités de ce boîtier donc il n’est pas exclus que j’en fasse un autre article plus tard.

Par rapport aux besoins de ma maman en terme de TV le bouquet de chaînes est trop limité, je pense aussi que l’offre de vidéo à la demande n’a rien d’exceptionnel et peut donc sans surprise être remplacé par mon deuxième écran de l’abonnement Netflix vu qu’il ne me sert pas, mais il est inclus dans l’abonnement donnant accès à la HD. Bref, comme c’est une option je pense qu’elle ne durera pas trop longtemps puisqu’on peut la désactiver quand on veut. Avec mon immobilisme de décembre j’ai eu tout le temps de chercher les alternatives, et une solution se profile.

En effet, pour accéder aux chaînes de TV que ma mère recherche, il est possible désormais de passer par un service relativement récent qui a su se faire une place malgré les combats menés par les chaînes de TV pour les empêcher de révolutionner l’expérience utilisateur : Molotov. Dans sa version gratuite si les services proposés ne sont pas spécialement intéressants (encore qu’on a accès au Replay, ce qui est déjà un plus par rapport à la TNT classique par exemple), une fois passé sur une option payante, ça commence à devenir très sexy : enregistrement de contenus (plus limités par la disponibilité courte en replay), passage à une diffusion européenne, diffusion sur quatre écrans en simultanés, et là ça concerne le premier palier de 4€ par mois, sachant que ces services supplémentaires sont aussi dispos dans les autres options.

Il y a justement une option extended à 10€ par mois qui rajoute des chaînes. On retrouve les services supplémentaires précédents, avec l’accès cette fois à quarante chaînes thématiques supplémentaires, jeunesse, sport, sciences et nature, on dirait les catégories de questions du trivial poursuit. Et parmi ces chaînes, celles que ma maman regarde le plus souvent sur CanalSat, en dehors de Ciné+. Sachant que ce tarif est le même que celui de l’option Videofutur. Le seul hic, c’est l’accès au service une fois souscrit. Il est évident que ma mère ne va pas remplacer une TV Full HD de 127cm et le Home Cinema 5.1 par son PC de 17″ et ses enceintes intégrées. Il va donc falloir trouver une « box » vidéo de remplacement.

Les options crédibles et suivies sont peu nombreuses. En gros, il y a la Nvidia Shield TV, qui commence à dater mais est toujours maintenue logiciellement, et la Xiaomi Mi Box, beaucoup moins cher mais moins puissante et uniquement orientée vidéo (sans parler de la disponibilité en France), là où la Shield a naturellement des capacités supplémentaires orientées jeu vidéo. En gros on est sur un rapport de 1 à 3 pour les tarifs, en one-shot facilement absorbables cependant. Et là, on a une expérience Android TV complète, ce qui veut dire Molotov, Netflix, Kodi, YouTube, RadioLine, bref, le catalogue d’applications Android. Je ne suis pas encore fixé sur le choix final, je compte quand même creuser encore un peu la box vidéofutur pour en savoir un max avant de repasser sur une solution adaptée. Et puis il reste encore la partie réseau à terminer de cerner. Bref, on a pas fini d’en parler.

G : En guise de teasing, ma mère prépare également son propre ressenti de son passage à la Fibre. Ça sera une première sur le blog : un billet invité de la part d’un non-technicien 🙂

La fibre chez ma mère, chapitre 1 : la box internet

samedi 5 janvier 2019 à 10:30

Comme je vous l’ai indiqué récemment, ma mère est enfin passée à la fibre. Il y a du bon et du moins bon, ce qui est sur c’est que l’adsl, c’est fini ici !

Une première bonne nouvelle

3 décembre, appel du technicien : un créneau s’est libéré, et il est possible de poser la prise aujourd’hui, soit une semaine en avance, mais c’est génial ! Oui mais c’est que j’ai rien reçu pour me connecter à interface client, donc coup de fil au service client, qui après trois minutes d’attente me répond implacablement, m’envoie les identifiants par mail pour parer au plus pressé, et déclenche l’envoi du courrier de bienvenue qui reporte ces informations et quelques autres.

Ce mail arrive dans la minute, rien à redire. Le technicien avait annoncé 10h30, mais en raison d’un client compliqué à gérer l’équipe arrive finalement à 11h.

Des travaux impeccables

C’est une équipe de deux techniciens qui se garent avec un fourgon équipé d’une nacelle. Cette nacelle sera mise à contribution car ici, point de réseaux enterrés, tout est en aérien sur les mêmes poteaux qui portent les réseaux cuivre dont le téléphonique qui n’en finit pas de vieillir et laisse pourrir l’ADSL. En effet, le boîtier de raccordement a été posé au bout de la rue, il faut donc tirer la fibre jusqu’à la maison, trois poteaux plus loin. Le câble, qui au premier abord ressemble à un câble d’antenne TV, est en fait un gros gainage de kevlar, qui recouvre un câble blanc qui lui aussi est empli de kevlar avec enfin au centre, la fibre qui grosso modo fait le diamètre d’un cheveu. Il faut dire que c’est fragile, la protection est donc primordiale, c’est aussi pour ça que je suis un peu anxieux par rapport au fait que l’installation est aérienne, il faut dire que les vents peuvent facilement dépasser les 100 km/h.

Le brin rouge, sachant que là il est est pas encore dénudé, donc c’est encore plus fin !

Il aura fallu deux heures pour finaliser l’installation (vers 13h). Impeccable, pas besoin de refaire 500 trous pour passer à travers le mur, juste à côté du meuble TV, le technicien en profite pour refixer la prise électrique qui ne tient plus que par l’opération du saint esprit, rien à voir avec les errements notamment des sous-traitants d’SFR qui vous salopent le boulot (j’ai entendu des histoires parfois ahurissantes de câbles téléphoniques ou TV coupés pour faire passer celui de la fibre).

Les premières surprises arrivent

Première surprise, il y a deux boîtiers : celui qui amène la fibre à l’intérieur, et un convertisseur fibre -> Ethernet qui vient avec un petit bloc transformateur d’alimentation. Je respire profondément, les appareils avec des transfos de ce genre, ça commence à me gonfler, parce qu’il est toujours compliqué de les brancher sur les multiprises, ça condamne très souvent une des prises. Donc rien que pour Internet, je vais avoir deux transfos : celui du convertisseur, celui de la NordNetBox Impulsion.

Deuxième surprise, alors que ce n’est pas mentionné, il y a un délai à l’activation de la prise. Le technicien nous indique avant de partir, généralement dans 24h, parfois chanceux dans la soirée. Un rappel au support technique m’indique maximum dans cinq jours. Je dois donc patienter, je branche la box et attend que les diodes s’allument.

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Troisième surprise, bonne nouvelle c’était dans la soirée ! Il faut laisser le temps à la box de faire ses mises à jour, pas de souci je suis en train de terminer un revisionnage des films Harry Potter, les deux derniers. À peine fini je prend mon PC, soulève la box pour récupérer le code WiFi par défaut et faire un test rapide en wifi et en Ethernet, car tous les câbles sont fournis. Le technicien m’a prévenu que le débit allait fluctuer un peu au début, pour progressivement atteindre le maximum le temps que les appareils se calibrent correctement. On tape déjà dans un peu plus de 300Mbps en montant ce qui est une très bonne nouvelle.

Je vais donc me coucher sur cette bonne nouvelle (il est une heure du matin), histoire de faire de beaux rêves de connexion qui fonctionne correctement.

Le chemin de croix du contrôle du réseau local

Le lendemain matin, j’attaque donc la recherche des paramètres du réseau local, à savoir contrôle du wifi, du DHCP, du DNS, de la redirection des ports qui seront nécessaires pour accéder à distance au réseau. Je sais déjà que ça va être la merde avec une adresse IP publique qui n’est pas fixe, mais bon, si le reste est là, on trouvera des solutions (j’ai déjà un domaine OVH dédié pour ma maman, et OVH propose de faire du DNS dynamique alors…).

Toutes les documentations papier ou en ligne de NordNet indiquent qu’il faut passer par l’interface client pour contrôler les paramètres notamment Wifi. Hein ? Allo ? On parle de contrôler un appareil local, via un site à distance ? Et si ça ne fonctionne plus, plus d’accès à rien ? Une connerie sans nom, qui me bouffait déjà avec la Freebox HD et m’avait poussé à utiliser mon propre routeur. Première problème : je confirme que si on peut accéder à l’espace client depuis n’importe quelle connexion pour gérer les infos courantes (facturation, etc), le déblocage des paramètres de la box se fait impérativement depuis la connexion de celle-ci.

Mais dans mon cas, j’ai une erreur, il me dit que l’interface est hors-ligne :

Bon, avant d’appeler je cherche quand même si une interface locale ne serait pas proposée, quand bien même elle ne serait pas documentée. On sort donc un petit nmap pour vérifier les ports ouverts sur l’interface privée :

Starting Nmap 7.70 ( https://nmap.org ) at 2019-01-04 00:54 CET
Nmap scan report for NordNetBox_Impulsion.Home (192.168.5.1)
Host is up (0.017s latency).
Not shown: 992 closed ports
PORT     STATE    SERVICE
21/tcp   filtered ftp
22/tcp   filtered ssh
23/tcp   filtered telnet
80/tcp   open     http
139/tcp  open     netbios-ssn
445/tcp  open     microsoft-ds
631/tcp  open     ipp
5431/tcp open     park-agent
MAC Address: F8:AB:05:86:5F:16 (Sagemcom Broadband SAS)

Il y a une interface web locale apparemment sur le port 80, mais je n’ai pas les accès, j’ai testé tous les identifiants rien ne fonctionne. Donc nouveau coup de fil au service client, pour avoir un technicien cette fois-ci, histoire de débloquer un peu la situation. Verdict : c’est l’heure du midi, c’est pas la peine d’essayer, « tous nos conseillers sont déjà en ligne ».

J’ai donc rappelé en début d’après-midi, j’ai attendu un peu plus de cinq minutes. Réponse : y’a un bug sur toutes les box fournies depuis le début décembre, le profil client n’est pas appliqué et donc impossible d’accéder en local ou à distance à la box. Il sera adressé fin janvier globalement pour tous les clients, en attendant c’est traité au cas par cas, j’attends soit demain soit après-demain que la mise à jour soit poussée manuellement (la box redémarre automatiquement, ils passent la maj firmware dans la nuit).

Donc j’attends… En parallèle j’ai installé le décodeur Videofutur, une autre aventure… que je traiterai dans le chapitre 2.

Quelques liens en vrac et en français, 30° édition

lundi 31 décembre 2018 à 12:00

Allez, c’est Noël, on va solder les liens qu’il me restait en stock pour repartir « vierge » en 2019. Une cure détox pourrait-on dire, avec pas mal de sujets couverts, une vision d’ensemble du futur pas vraiment brillante, pourtant cette année mon déprime habituelle est plutôt faible comparée à mon immobilisme forcé. Vivement l’année prochaine.

Retour d’expérience sur une politique de mot de passe zxcvbn en entreprise

En plus de faire du podcast intéressant, le Comptoir Sécu propose maintenant des articles écrits comme ce très intéressant retour d’expérience sur la gestion des mots de passe en entreprise, et surtout comment organiser la transformation auprès des collaborateurs. Je ne peux que vous conseiller de vous abonner au flux RSS 🙂

Algorithmes partout, intelligence nulle part

Vous avez probablement vu passer sur vos réseaux sociaux l’histoire de Gillian Brockell, cette femme dont la perte de son enfant mort-né est déjà particulièrement douloureuse doit se battre contre le web que nous ont construits Google et Facebook pour faire son deuil. Olivier Ertzscheid, enseignant chercheur en sciences de l’information et de la communication, alias Affordance, nous présente une traduction de la lettre ainsi qu’une analyse de la situation comme tout bon chercheur sait le faire (sans parler des mises à jour pour le moins… ahurissantes). Encore un à suivre, mais attention, les lectures prennent beaucoup de temps.

Pourquoi votre smartphone sait tout de vous et comment elle s’en sert

Il y a probablement une faute de français dans ce titre mais ça n’enlève rien à la qualité de cette infographie créée par la CNIL qui vous montre à quel point la géolocalisation de votre téléphone par toutes les applications que vous y avez installé peut être un problème. Je suis tout de même plus réservé sur le dernier conseil concernant la mise à jour du logiciel du téléphone, quand on connaît la politique des fabricants de ne rien mettre à jour pour vous vendre plutôt un autre appareil.

Donner du peps à LibreOffice : de l’art de la personnalisation de la suite bureautique libre

Changeons un peu de registre en laissant temporairement la morosité de côté, pour parler personnalisation des logiciels, en l’occurrence LibreOffice. Parce qu’adapter son outil à ses besoins est toujours plus efficace que de se contraindre soi-même à l’ergonomie de l’outil, et parce que c’est un logiciel libre qu’il faut arrêter de considérer comme un jouet et continuer de demander à tout bout de champ « comment on pirate Office ? »

Pour se débarrasser de son Internet, on dit qu’il a le terrorisme

Quand je vous disais que le morose était de mise, nos dirigeants se préparent à carrément abandonner la censure des contenus sur le web aux multinationales US sans même se planquer, une fois de plus avec la très mauvaise excuse du terrorisme. Sous prétexte que moins il y a d’acteurs, plus c’est facile à contraindre (et économiquement soutenable), tranquille, on lâche l’affaire. Dans la droite lignée de Google à la formation en informatique, Microsoft qui siphonne et formate les usages et comportements dans les écoles… je l’avais dit, un futur bien sombre.

Facebook vous écoute-t-il ?

De mon point de vue contraint aux chaînes de télé ces dernières semaines, nul doute que les enceintes connectées espionnes ont été un cadeau prisé sous les sapins cette année. Alors même qu’on connaît leur dangerosité, mais personne n’en parle. Ici c’est un acteur qui n’a pas encore son propre matériel, Facebook, qui est mis en lumière via le comportement de son application mobile que tout le monde a dans sa poche ou presque.

L’histoire de la création de Linux

Si vous entendez souvent parler de Linux en tant que système d’exploitation, c’est bien d’abord d’un noyau dont on parle, et sa création, ses inspirations sont très intéressantes quand on se repenche sur le contexte. Ce petit résumé d’histoire est très plaisant à lire qui plus est, alors pourquoi s’en priver ?

La sauvegarde de MySQL Server avec Percona Xtrabackup

J’ai eu l’occasion d’utiliser intensément Xtrabackup dans le cadre d’une migration de plateforme et je dois dire que c’est un bonheur de logiciel libre. Voir un guide pratique en français est toujours agréable (autour des articles sur les nouveautés de Mysql Server 8), beaucoup plus digeste que la doc officielle surtout, je ne peux donc que vous recommander de garder ça dans un coin. Merci Denis 🙂

Désinstaller des applications système d’Android

Une des plaies d monde Android vient de la personnalisation à outrance du système d’un téléphone à sa livraison, et surtout l’absence parfois quasi totale du contrôle sur les applications embarquées, qu’il est impossible de désinstaller complètement. Il semble exister tout de même une solution, pas du tout accessible au commun des mortels, et toujours à vos risques et périls, mais une solution quand même pour libérer un peu l’espace de stockage de son appareil.

Pourquoi nous sommes piégés sur YouTube

Monsieur Bidouille présente une super vidéo pour confirmer ce que j’avançais sur les problèmes non résolus des plateformes alternatives fédérées, à savoir pourquoi YouTube n’est pas prêt de perdre son statut de leader (surtout au regard des volontés des censures de nos dirigeants, cf les liens plus haut). Non pas que je suis fier de dire que j’avais raison, mais ça fait plaisir de voir qu’on fait mouche, surtout quand la confirmation vient d’un des premiers concernés.

Fonctionnement et configuration d’OPcache

A la base, PHP est un langage dit interprété, c’est à dire que le code est lu et exécuté en temps réel. Mais pour augmenter les performances, il existe des mécanismes de compilation « juste à temps » qui traduit un même code en une représentation plus performante lors de sa première lecture. Opcache est ze mécanisme de choix, et sa configuration peut encore être améliorée en fonction de votre contexte, amenant toujours plus de performance.

Effets du chiffrement omniprésent sur les opérateurs

Lors des discussions autour de TLS 1.3, qui doit gérer le futur de la sécurité de nos communications, en particulier sur le web, les états et certaines entités privées se sont levées pour dire tout le mal qu’ils pensaient de la sécurité de nos communications (en gros, le chiffrement les empêche de pouvoir tout espionner). Ils ont donc cherché à jouer le jeu des « standards » d’Internet en publiant une RFC regroupant leurs revendications et pratiques douteuses, sans se remettre en question une seule seconde. Ça en serait presque drôle si justement des états n’étaient pas impliqués dans le processus.

Mode maintenance avec nginx

Certains moteurs de sites web disposent de mécanismes intégrés permettant d’afficher une page temporaire lors de manipulations qui nécessitent l’absence d’interaction avec les utilisateurs. Mais quand on a pas un tel mécanisme à disposition, on peut du coup se reposer sur le serveur Web, ici, on a un exemple d’implémentation avec Nginx, d’autant plus ingénieux qu’il suffit de la présence d’un fichier ou pas pour déclencher la bascule, on peut donc donner le contrôle au propriétaire du site sans qu’il aie accès au serveur web qui nécessite des permissions administrateur.

L’effet du RGPD sur les trackers des applications Android, selon Exodus Privacy

Le règlement générale sur la protection des données a commencé à bouger pas mal de lignes, espérons en notre faveur, en signant la fin de la récré chez les sociétés malveillantes violant votre vie privée à outrance via une collecte abusives de données. A ce sujet, Exodus Privacy travaille à identifier les plus mauvais élèves en matière de trackers dans les applications mobiles, et a fait un bilan « applicatif » plusieurs mois après l’activation du règlement. Bilan pas super glorieux, mais tout n’est pas noir.

PHP FPM : récupérer la vraie adresse IP du visiteur

J’avoue que j’ai rarement eu besoin de me poser la question, pareil chez mes clients qui sont dans une situation similaire. En effet, quand il y a un ou plusieurs intermédiaires, l’application web n’a pas connaissance de l’adresse du visiteur mais du dernier intermédiaire en question. Cependant, dans ce cas on indique l’adresse IP en question dans un entête HTTP dédié, mais si l’application n’en tire pas explicitement parti, voici une méthode pour s’assurer de le récupérer côté PHP-FPM.

Et si vos comptes disparaissaient demain ?

Je vais exceptionnellement citer le premier paragraphe du billet :

On a tendance à l’oublier mais, aujourd’hui, la plupart de nos interactions sur le net ont lieu à travers des plateformes centralisées. Cela signifie qu’une seule entité possède le pouvoir absolu sur ce qui se passe sur sa plateforme.

Voilà, pas la peine de paraphraser, je vous laisse lire le reste sur le site de ploum.

Réduire le nombre de TIME_WAIT généré par les applications

J’ai déjà eu le tour dans le passé suite à une bug applicatif chez un client, et même si c’est rare il est déjà arrivé qu’un serveur soit « débordé » par un nombre trop importants de connexions TCP qui n’ont pas été fermées correctement. Pour pallier partiellement à ce problème, on peut agir au niveau du noyau linux via quelques paramètres de la pile réseau. Au passage ça profitera à toutes les applications, alors pourquoi s’en priver ?

Le point sur l’authentification à deux facteurs

Utiliser un deuxième facteur d’authentification permet de renforcer de manière drastique la sécurité de l’accès à un compte, au delà du très classique couple « identifiant/mot de passe ». Ce facteur supplémentaire peut prendre plusieurs formes, les connaître est un bon début pour savoir quoi implémenter dans vos applications, ou l’activer sur les services qui le proposent.

HowTo Nginx

Evolix est une société qui fait de l’infogérance de solutions open-source sous Debian et OpenBSD. ils publient sur leur wiki des configurations sur tous les logiciels qu’ils manipulent, et en guise de mise en bouche sur cette base de connaissances qu’il faut garder dans un coin, j’ai choisi de vous partager la section qui concerne Nginx, tout simplement parce qu’elle m’a récemment servi.


Pfiou, ce fut long, mais c’est fini pour 2018, 19 liens c’est le double de d’habitude. Sachant que l’activité risque d’être chargée en début d’année prochaine, autant dire qu’il était nécessaire de remettre les compteurs à zéro. Surtout que ça s’annonce pas super encourageant pour notre société…