PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Le Web d’aujourd’hui serait-il le même sans Google ?

dimanche 13 janvier 2019 à 10:30

On a beau dire que Google est devenu le mal à cause de son fonctionnement basé sur le profilage de la population à des fins mercantiles (et aussi d’espionnage, les USA s’étant doté des lois pour pomper toutes les données collectées), je pense que personne ne se rend vraiment compte à quel point il est devenu incontournable pour le Web actuel. J’aimerai donc mettre en lumière quelques points pas très visibles mais essentiels je pense pour comprendre comment on est arrivé là.

Le Web a existé avant Google. Huit ans sans lui pour être exact. Et c’était… Alors j’ai commencé un an avant son arrivée. Et à l’époque Google a démarré comme moteur de recherche. Et seulement ça. Mais il a rapidement eu du succès parce que comparé aux autres moteurs existants qui cherchaient à gagner de l’argent en vous présentant une tétrachiée de contenus en plus (ce qu’on appelait à l’époque des portails), Google se concentrait sur la recherche, les résultats, sans fioriture, un design qui perdure encore maintenant malgré quelques ajouts. Il faut dire qu’on avait pas de très haut débit à l’époque, donc chaque octet comptait.

J’ai commencé vraiment à utiliser le moteur de recherche Google en 2002 (grosso modo avec mon premier pc à moi et ma connexion 56k AOL pourrie). A ce moment-là pour se rémunérer, vu qu’on ne paie pas pour l’utiliser, Google propose AdWords, un programme de publicité via l’achat de mot-clé, c’est à dire que vous pouviez payer des « mots-clés » pour remonter dans les résultats de recherche des utilisateurs. Déjà à l’époque, face aux parts de « marché » grandissante du moteur, ça a fait râler un peu, mais le référencement n’était pas aussi Google-centré que maintenant. Ce programme existe toujours à l’heure actuelle, cependant les résultats « sponsorisés » de la sorte sont clairement affichés comme tel. Mais ça marche, Google amasse déjà une manne financière importante. Vient naturellement ensuite AdSense, la régie publicitaire de Google. Il ne s’agit plus de demander aux gens de payer pour apparaître dans les résultats du moteur de recherche, il s’agit de rémunérer les sites qui donnent de la visibilité aux autres via de la publicité (ceux récupérant cette visibilité payent évidemment). Google fournit les outils, et prend sa commission au passage. Carton également, à l’époque les montants étaient facilement élevés même avec un trafic un peu faible. Mais la publicité n’était pas encore pernicieuse comme elle peut l’être aujourd’hui.

A ce moment-là, un certain Mozilla signe un partenariat avec Google pour lui reverser une partie des revenus issus des recherches effectuées directement au sein de Firefox, le tout nouveau navigateur web de la jeune fondation. Firefox vient décrasser un domaine pourri par Microsoft avec un Internet Explorer 6 largement majoritaire (on parle de plus de 90%), navigateur que Microsoft a annoncé laisser volontairement figé, laissant les innovateurs sans moyens pour proposer de nouvelles expériences aux utilisateurs. C’est pour ça que Firefox a été plus que bienvenu, et que vous avez certainement entendu parler de cette époque pré-firefox avec dégoût. Ou que vous lisez parfois « Chrome is the new IE », mais j’y reviendrait plus loin. Et avec une part de marché qui est allé jusqu’à 50%, autant dire que la puissance de Firefox a bien bénéficié à Google.

La même année que la sortie de la version 1.0 de Firefox justement, Google annonce et met à disposition Gmail, une solution de courrier électronique à l’interface elle aussi épurée. C’est à partir de ce moment-là je pense que le « compte Google » prend vraiment son envol, permettant de centraliser sur une seule identité toute l’activité des services Google que l’on utilise. Dans la vie de Gmail, un point qui a fait grincer des dents : Google annonce vouloir lire le courrier pour proposer sur l’interface web de Gmail des publicités ciblées. Demandez à n’importe qui s’il accepte que le facteur ouvre son courrier pour lui rajouter des flyers dans les enveloppes… En 2004 sort aussi un certain Google Maps. Pas grand chose à dire à part que son utilisation explosera réellement avec la navigation GPS sur Android, un service de plus incontournable là encore.

Je ne vais pas énumérer la totalité des services que Google a pu créer ou tuer depuis sa création, mais je vais en noter trois en particulier qui par la suite auront selon moi un impact majeur sur toute la planète qu’elle soit professionnelle ou non : le rachat de YouTube en 2005 et son explosion dans les années qui suivent, le rachat et la publication d’Android en 2007 (avec le succès que l’on sait, en 10 ans Android équipe plus de 70% des appareils mobiles du marché) et la publication du navigateur Google Chrome en 2008, avec désormais une part de marché qui frôle les 70% toutes plateformes confondues.

La principale particularité de la majorité des services que Google propose au public est qu’ils sont gratuits. Ils sont majoritairement financés par la publicité qu’une très grande partie des sites du web visibles affichent pour à minima se payer l’hébergement. Seules quelques fonctions parfois confidentielles mais essentielles pour les professionnels sont payantes (si vous n’avez pas entendu parler du récent tour de vis sur les accès à Google Maps, c’est à se marrer). Le fait que Google soit capable d’opérer tous ces services sans que vous déboursiez un seul centime devrait déjà vous effrayer. En l’espace de vingt ans, il a ancré l’idée d’un web gratuit pour ses utilisateurs (en dehors du prix de la connexion Internet), ce qui a déjà valu son lot de tensions, de fermetures de services qui n’attirent pas une masse critique, et l’absence de prise de conscience pour les plus jeunes que tout n’est pas gratuit dans la vie. Et je ne vais pas revenir sur tous les problèmes que posent Google Chrome.

Mais Google n’est pas uniquement un gros profiteur. En fait, le grand public n’a pas forcément connaissance de tout ce que Google a contribué pour qu’on aie un web moderne et plus sécurisé. Qu’on le veuille ou non, l’augmentation du trafic mobile (Google annonce régulièrement que les recherches depuis un mobile totalisent environ 50%, en augmentation légère mais constante dues à la maturité de Google Assistant), lié au fait que Google équipe 70% des terminaux mobiles du monde entier, lui donne une force de frappe d’expérimentation et de décision sans pareil. Ses datacenters ne sont pas clés en main mais reposent sur des technologies majoritairement open-source. Pour tirer le maximum de ses machines, Google a longuement expérimenté le noyau Linux et tenter d’en améliorer plusieurs points notamment au niveau du réseau, améliorations qu’ils ont très souvent reversé au projet mère, et tout le monde peut en profiter.

L’augmentation du trafic lié à la vidéo sur YouTube a poussé Google à mener des recherches sur la compression vidéo. En rachetant On2 Technologies, le géant a publié VP8, et le format Webm, un « substrat » du format mkv optimisé pour le web et le streaming. Si le VP8 est intéressant, il ne sera pas très utilisé en dehors de YouTube. Le VP9 doit prendre le relai du VP8 en réduisant le poids de moitié, un point essentiel notamment pour accompagner l’essor des contenus ultra haute définition. Sorti en 2012, et régulièrement raffiné depuis, le constat est le même que pour le VP8, il n’est pas très utilisé. Mais son aspect « sans brevet » va avoir une importance ici, puisque le VP9 servira de base aux travaux menant à l’AV1, une initiative beaucoup plus large que Google seul dans son coin. Les résultats de la création et du support de ce codec nouvelle génération ne se feront sentir que dans deux ans à priori, alors croisons les doigts pour que cette fois ce soit la bonne.

Aparté : le format d’image WebP, qui est dérivé des travaux sur le VP8 et le VP9, doit permettre des images plus légères à qualité égale par rapport au PNG ou surtout au JPG. Son support vient de se déployer dans Firefox et Edge. Il n’est donc pas idiot de se pencher sur le sujet.

Le web repose sur un protocole, une langue, qui s’appelle HTTP. La langue actuelle la plus répandue date de 1999. Et n’a pas évolué du tout depuis, ou alors tellement peu que le numéro de version n’a pas changé. Au point que vous pouvez toujours utiliser un navigateur web sorti il y a vingt ans pour contacter un site web d’aujourd’hui. Ça sera moche visuellement mais d’un point de vue purement protocolaire ça fonctionne. Le problème c’est que c’est un protocole lent, verbeux, et la multiplication des contenus dans une même page web provoque maintenant un réel gaspillage de ressources réseau et donc CPU. Via son navigateur Chrome, Google a expérimenté un remplaçant nommé SPDY. Les spécifications sont publiques, et côté navigateurs même Firefox finit par le supporter. Mais rien n’est standardisé. Cependant, SPDY va très très fortement inspirer le vrai standard qu’est HTTP/2, qui a été finalisé en 2015, et qui se déploie petit à petit (il est d’ailleurs exploitable sur le blog). Le gain est réel, et sur des réseaux mobiles contraints et instables c’est forcément bienvenu.

Google est également en train de préparer la suite, qui doit encore mener à de meilleurs performances, en la personne de QUIC. Ce même QUIC a servi de base à des travaux pour ce qui devrait aboutir à HTTP/3. Toujours sur le sujet des protocoles, via son hégémonie dans la recherche sur le web, la volonté de mettre en avant les sites avec chiffrement dans ses résultats a poussé beaucoup d’acteurs qui n’avaient que peu d’égard pour la confidentialité des échanges avec leurs utilisateurs se mettre en marche pour basculer sur le chiffrement. La réalité économique de ces conséquences a poussé certains acteurs à proposer de quoi répandre l’usage pour tous gratuitement, grâce à Let’s Encrypt. Au point que celui-ci devient un point de faiblesse s’il vient à tomber, car il est seul sur son créneau à être supporté par autant d’acteurs.

Quoiqu’on pense des travers actuels de l’apprentissage profond (deep learning), ou le terme que le grand public retient à savoir l’intelligence artificielle (j’ai déjà expliqué pourquoi je n’aime pas trop ce terme, et je n’ai pas changé d’avis, pour l’instant), Google s’en est servi partout dans ses outils, et n’a pas oublié de les publier en open-source pour que tout un chacun puisse s’en servir directement sans redévelopper de zéro. Si Google a développé ses propres puces matérielles dédiées à ces algorithmes, avec la perspective que ça soit exploitable par les cartes graphiques aux architectures friandes de calcul parallèle, tout le monde y gagne : Google en visibilité et en crédibilité dans le domaine, ainsi qu’en retour de développeurs qui eux de leur côté peuvent bénéficier d’outils avancés sans les années de recherche nécessaires, pour se concentrer sur leur produit final.

Et pour être impliqué dans le sujet au quotidien avec mes clients, le choix de Google de mieux référencer les sites « mobile-first » et surtout le HTTPS sur le moteur de recherche imposent à tous les sites de se conformer pour garder la visibilité des 90+% de recherches effectués sur le moteur du géant, visibilité sans laquelle il ne pourraient subsister quelque soit le modèle économique sur lequel ils reposent. Et moi-même je dois reconnaître que c’est important et pratique, mobile-first imposant une légèreté bienvenue dans une orgie de JavaScript aussi pourri qu’inutile (quoique malheureusement incontournable), et HTTPS, je vais pas vous refaire le tableau.

Et si je voulais encore mentionner un point important qui m’a fait déployer une configuration sur plus de 4000 serveurs chez LBN : sur Gmail vous étiez prévenus quand un mail vous avait été envoyé par un correspondant sans aucune forme de chiffrement ou de protection (contenu ou transport). En annonçant un traitement en deux étapes : d’abord une simple alerte, le temps de permettre aux expéditeurs de rentrer dans le rang, puis en classant en SPAM ceux qui n’auront pas agi. Autant vous dire qu’avec plus d’un milliard de comptes de réception, tous les sites marchands peu regardant de la confidentialité des échanges se sont vite alignés (je laisse volontairement de côté la contradiction confidentialité et Gmail, je note juste la conséquence pour l’intégralité de l’écosystème). Microsoft n’a pas mis longtemps à suivre sans pour autant communiquer sur le sujet, rendant évidemment les investigations compliquées pour comprendre leur classement, ce qui fait que maintenant une grosse partie du trafic lié au mail se fait de manière sécurisée. Quand au contenu ça c’est encore une autre histoire, ça fait plus de 20 ans qu’on arrive pas à faire accepter des outils qui existent, parce que ce sont des outils complexes pour le commun des mortels.

Et je suis sûr qu’on pourrait continuer comme ça longtemps, s’il était possible d’avoir des vrais retours on pourrait parler de l’initiative Project Loon, un réseau de ballons stratosphériques équipés pour fournir une connectivité 4G où les réseaux classiques sont absents (terrestres ou sans-fil), et où le satellite coûte trop cher. Si vous avez d’autres initiatives positives qui ont été initiées ou soutenues par Google, ça viendra facilement compléter le tableau (quelqu’un pour nous faire l’éloge de kubernetes ?).

On le voit donc, malgré ses très mauvais aspects sur le penchant économique du web, ou sur le profilage et la violation de l’intimité des individus, ses apports techniques sont impossible à oublier. Il n’est pas dit que les évolutions aient été aussi rapides, que le fruit de certaines recherches qu’ils ont mené de manière ouvertes l’aient été avec d’autres acteurs (on pense notamment à Microsoft qui a mis très longtemps à commencer à jouer dans la même catégorie, et encore les travers sont fréquents). J’attends encore de voir les effets de l’AV1 en dehors de nos PCs qui sont les seuls pour l’instant à avoir les épaules nécessaire pour le décoder (sans parler de l’encoder), mais il y a fort à parier que sans ça, la MPEG LA continuerait de saigner la planète entière pour l’utilisation de H264 et H265 pour la vidéo pendant de longues années. HTTP/2 ne serait peut-être pas encore une réalité. Les progrès du deep learning ne seraient pas aussi visibles, avec entre autres un IBM qui préfère se garder sa solution et la vendre clé-en-main.

Google est donc partout : il permet encore à une quantité non négligeable de sites de survivre via la publicité, son service de mail est utilisé par plus d’un milliard de personnes à travers le monde, j’ai déjà évoqué les 70% d’Android qui ont permis à Google en partie de répandre son navigateur pour maintenant plus des deux tiers des webonautes, YouTube compte plus d’un milliard et demi d’utilisateurs mensuels (public et créateurs). Bref, Google domine le Web et il y a peu de chances que ça change pour l’instant. Le problème commence à être visible : quand Microsoft dominait les accès aux Web, il a conditionné les capacités de celui-ci (au-delà de la différence de bande passante globale du réseau à l’époque). Microsoft domine encore le marché PC et les différents errements liés à Windows 10 (espionnage de l’intimité, instabilité des mises à jour, absence de contrôle sur ces mises à jour, tentative d’imposer ses outils) sont une plaie pour une quantité beaucoup trop importante d’utilisateurs pour que ça dure encore longtemps.

Pour l’instant si on avait surtout vu des développeurs feignants ne pas supporter correctement tous les navigateurs (en ne testant certaines fonctionnalités parfois peu finalisées que sur Chrome, par exemple), là Google commence à vous pousser indirectement vers ses propres outils en usant artificiellement de fonctions uniquement disponibles dans ceux-ci. Le dernier exemple en date concerne YouTube, et sa refonte qui ne fonctionne de manière fluide que dans le navigateur maison, en raison de choix techniques discutables pour un service de cette visibilité. En étant majoritaire, Google pense qu’il n’a plus à se soucier de respecter les concurrents. C’est une posture plus que détestable qui ne va pas dans le sens d’un écosystème ouvert ou les décisions sont prises à plusieurs de manière publique.

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Vous vous souvenez tout à l’heure quand je parlais de la maxime « Chrome is the new IE » ? Dans un monde nourri d’innovations, la monoculture est un problème, car un seul acteur dirige toutes les avancées. Même si artificiellement la base de Chrome, Chromium, est ouverte et les contributeurs nombreux, le logiciel final que les gens utilisent au quotidien contient plusieurs additions qui ne sont pas partagées et peuvent imposer leur loi. Quand Internet Explorer était seul, seul Microsoft avait le pouvoir de le faire évoluer, et avait fait le choix de ne pas le faire. Quand Internet Explorer 7 sort avec Vista en 2006, il ne fait que rattraper son retard sur certaines fonctionnalités (les onglets !) et le support de standards tout frais qu’avaient réussi à pousser Firefox et Opera via le W3C pendant ce temps-là, et que les développeurs avaient fini par adopter (on a eu droit à une période magnifique de hacks dégueulasses en JavaScript ou côté serveur pour pouvoir supporter à la fois les standards et Internet Explorer…). Donc laisser Google décider seul de l’avenir du Web, c’est très mauvais.

Par chance pour l’instant Gmail n’est pas aussi pénible que Microsoft sur le mail, jusqu’au jour où ils prendront la même direction et refuseront les quantités de mails qui ne viennent pas d’un gros fournisseur (en substance c’est ce que fait Microsoft maintenant sur Office 365 et c’est une catastrophe). Il est encore possible d’accéder à Gmail via des protocoles standardisés que sont l’IMAP (et même imposent l’IMAPS, soit le même mais chiffré, logique) et SMTP (même combat pour SMTPS), mais certaines fonctions non standards sont mécaniquement impossible à utiliser. Qu’est-ce qui empêche Google de supprimer ce support et imposer soit l’interface Web, soit les applications mobiles ?

Google impose déjà sa loi sur les smartphones Android, en forçant les constructeurs à pré-installer l’intégralité des outils Google pour se voir valider la commercialisation d’un téléphone. Il vient d’être condamné en Europe pour ça d’ailleurs, mais le contournement est pernicieux : si vous voulez valider un Android sans Google Assistant et sans Chrome par exemple, vous devrez… payer 40$ par appareil vendu. Une situation difficilement tenable commercialement parlant pour les fabricants qui continueront donc de permettre à Google de vous sucer le téléphone, mais Google pourra se cacher derrière l’argument que l’alternative existe. Avec ce comportement comment voulez-vous que des alternatives soient possibles et surtout soient vues par des utilisateurs majoritairement peu techniques qui n’installent en fait que très peu d’applications sur leurs téléphones ? Certains n’ont-ils pas pesté que Samsung faisait tout en doublon dans leurs smartphones, sans penser qu’ils n’avaient peut-être pas le choix ?

David Legrand réagissait en 2017 à la question du démantèlement de Google. Il n’était certes pas le seul, mais posait pas mal de bonnes questions et pointaient intelligemment du doigt pas mal de problématiques liées au géant et à son influence sur le monde pas seulement numérique mais physique. Contraint dans mon fauteuil pendant tout le mois de décembre chez ma mère, je n’ai pas pu m’empêcher de frissonner de peur en voyant les multiples publicités pour les enceintes connectées, aussi bien Google Home qu’Alexa d’Amazon, en pensant au pouvoir supplémentaire qu’on donne à ces sociétés privées américaines sur nos propres vies physiques (le sous-titre de cet article résume bien la situation et pourquoi on devrait les éviter comme la peste). Et la solution n’est pas simple, comme ces outils sont gratuits tout le monde les utilise, et on n’imagine pas devoir payer pour l’intégralité de ce que propose le Web aujourd’hui. J’ai du mal à voir un avenir radieux pour tout ça, pas pour moi, j’ai les capacités techniques et financières de m’en sortir, mais pour le restant du monde…

La fibre chez ma mère, chapitre 2 : la box Videofutur

mardi 8 janvier 2019 à 18:30

Dans l’épisode précédent, on a traité de l’installation de la box internet, qui s’est pas trop mal déroulée dans l’ensemble même si pour l’instant je peux pas faire grand chose pour la configurer. Ça fonctionne très bien au niveau réseau, c’est déjà pas mal, donc je me suis penché sur le deuxième morceau de l’abonnement : la box Vidéofutur qui compose l’option TV de l’abonnement. Une fois de plus l’opération n’a pas été de tout repos.

Un matériel sobre, élégant, simple à installer

Je déballe le boîtier, il est particulièrement simple : un pavé noir brillant, avec juste un logo Fibre Videofutur sur la devanture, et le strict nécessaire en connectique à l’arrière, à savoir l’alimentation, l’Ethernet, l’HDMI, la prise antenne TNT, un port USB3 Type A, un SPDIF. Une télécommande accompagne la boite, ainsi que tous les câbles pour le raccordement à la box internet et à la TV. Oui, le câble HDMI est fourni, ce qui est déjà remarquable en soi, le câble Ethernet est d’une longueur plus que confortable ce qui évite d’avoir à garder les deux proches l’un de l’autre.

Check le claquettes/chaussettes

Concernant la face avant, c’est clairement trop simple. En gros, à part le logo qui n’est qu’un sticker, on a juste une diode pour dire allumé ou éteint. Pas d’affichage de l’heure ou de la fonction, du numéro de chaîne, etc. Rien. J’ai fini par mettre la main sur les spécifications techniques sur le site de Videofutur (image reprise de la page du site) :

À l’allumage, on panique la première fois en voyant le logo vidéofutur avec la télé qui indique 640×480. Mais C’est temporaire, on passe vite au 1080i. L’interface de démarrage est simple, tout est fait pour aller à l’essentiel. Les couleurs ne sont pas agressives, bref, c’est ça sent pas le renfermé. La détection du réseau est automatique. Dès la première étape ça nous demande de faire une mise à jour. J’obtempère, ça prend un certain temps à se déclencher, mais la mise à jour s’effectue quand même sans trop d’encombres. On revient ensuite à l’écran de démarrage en trois étapes : configuration réseau, définition du contrôle parental (on peut choisir le niveau à partir du -10 jusqu’à -18, contrairement à CanalSat ou c’est seulement -18), recherche des chaînes. Bizarrement le boîtier parle des chaînes TNT, je ne suis pas surpris qu’il ne trouve rien.

Le retour des surprises

Une fois ces étapes terminées on arrive à l’accueil, mais ça nous dit que le service est désactivé :

Ah. Je reprend mon PC, retourne sur l’interface client, effectivement par défaut le service TV est désactivé alors même qu’il fait partie de l’abonnement, et donc est facturé. Je n’ai pas d’explication concernant cette incohérence, mais c’est une autre étape non triviale qui mériterait d’être revue par NordNet, car ce n’est pas fluide. Mais c’est pas fini :

Voilà, potentiellement il peut y a voir un délai à l’activation, donc je m’apprête de nouveau à attendre. C’est le moment que je choisis du coup pour appeler le service client pour causer avec le technicien (autant mutualiser le temps d’attente). Après avoir abordé le cas de l’interface de contrôle (pour lequel je vais devoir attendre, encore), j’aborde les difficultés que j’ai avec la TV. Il faut dire qu’entre temps, l’interface client indique que le service est activé (sans avoir reçu le SMS), affiche la bonne adresse MAC, mais malgré les tentatives de redémarrage ça indique que le service est désactivé. Au passage, l’adresse IP attribuée à la box vidéofutur est dans la même plage DHCP que les autres appareils, là où d’autres opérateurs isolent le flux sur un VLAN dédié inaccessible aux utilisateurs. Je ne sais pas encore trop quoi penser de cette information, mais elle est là.

Le technicien m’oriente donc vers une réinitialisation, via le menu de contrôle avancé qui est protégé par le code de contrôle parental. Mais la box ne redémarrera jamais, le voyant rouge de la face avant clignotera face aux demandes de la télécommande mais sans repasser au vert. On passe donc à la vitesse supérieure : réinitialiser via le bouton reset qui est l’unique bouton physique présent sur le côté gauche du boîtier. On repart à zéro mais cette fois, à l’annonce d’une mise à jour disponible, le numéro est beaucoup plus élevé que celui indiqué la première fois. On refait donc toutes les étapes, cette fois à la détection des chaînes TNT il en affiche 64, oui la dénomination est trompeuse ce sont bien des chaînes via le réseau. Tout fonctionne !

Presque parfaitement, oui nouvelle surprise le guide des programmes met beaucoup de temps à afficher les informations de toutes les chaînes, ce qui n’a pas de sens étant donné le débit disponible. Au fur et à mesure des affichages ça se remplit, on a l’impression d’une fonction d’arrière plan à la priorité beaucoup trop basse.

Une interface fonctionnelle mais pas toujours agréable à l’œil

Au final l’interface n’est pas des plus agréables, pour une bonne raison : elle est trop remplie, choix a été fait de vouloir afficher beaucoup trop de choses à l’écran. L’interface est organisée à la manière d’une Xbox 360 : les fonctions sont regroupées en haut de l’écran de manière horizontale, chaînes en direct, replay, et les fonctions qui viennent du cœur de métier de Vidéofutur, la consommation de contenus à la demande : films, séries, il faudra du temps pour fouiller le catalogue mais je ne me fais pas d’illusions : en France, la vidéo à la demande est le parent pauvre de la chronologie des médias, sauf pour les contenus à l’achat à l’unité (Mission Impossible : Fallout est déjà dispo par exemple). Au passage les conditions et les tarifs devraient vous faire fuir rapidement, 5 balles à l’unité, lié au service, et en petites ligne ça correspond à une location longue durée de 5 ans. Oui, vous payez mais c’est pas définitif.

Il y a quelques applications annexes disponibles, mais à part YouTube vous pouvez repasser pour autre chose. Sans surprise pas question d’avoir une application Netflix, pour ne pas entrer en concurrence avec leur propre catalogue. RadioLine permet facilement d’accéder à certaines webradios étrangères, mais c’est la seule application audio. N’espérez donc pas utiliser votre installation pour diffuser votre catalogue provenant de votre service musical préféré.

En tout cas si l’agencement n’est pas spécialement aéré, c’est fluide, et ça fait plaisir, il ne faut pas 500 ans pour changer de chaîne, le guide des programmes s’affiche dans la seconde, pour ceux qui connaissent le décodeur CanalSat, la comparaison est impossible tellement la lourdeur et le lenteur de ce dernier somt importantes. Le contrôle du direct soufre par contre d’un tout léger retard à l’allumage. Celui-ci n’a pas besoin de disque dur externe pour fonctionner contrairement au Cube, ce qui me fait penser qu’il est équipé d’une mémoire flash interne pour remplir cette fonction.

Autre point agréable, les chaînes sont en Full HD pour plusieurs d’entre elles, là où CanalSat limite au 720p. Une contrainte qui peut se comprendre à cause de la méthode de diffusion, sur le satellite la bande passante coûte cher, très cher, ils seront contents de pouvoir basculer sur de l’AV1, ou de l’H265 s’ils sont masochistes sur les coûts de licence. Mais ça demandera de revoir le parc de matériel.

Pour finir, il y a une application de lecture multimédia (appelée mediacenter) là aussi simple, mais très fonctionnelle. Elle permet d’accéder au contenu d’un lecteur (clé USB, disque dur externe) branché à l’arrière, ou au partage réseau qu’aura effectué la box internet. J’ai pas fait une recherche exhaustive mais étant donné qu’elle affiche un support 4k, j’ai tout de même testé la lecture de quelques fichiers mkv full HD depuis mon disque dur externe en USB3 (encodés en x264), ça roule nickel. L’interface n’est pas des plus intuitives, mais elle se manipule aisément.

Dernier point un peu technique, avec l’ensemble bluray/home cinema défaillant de ma maman, sans surprise la VOD ne fonctionne pas à cause du HDCP qui ne peut pas être établi (ça fonctionne en branchant la box directement sur la TV). C’est un point que je vais devoir garder en tête pour plus tard, ça ne bloque pas les autres fonctionnalités, et vu le catalogue, de toute façon ma mère va s’en passer, surtout que pour l’instant Canalsat reste à côté le temps que ça soit remplacé.

Une offre qui peut être adaptée pour des besoins simples

Le moins qu’on puisse dire c’est que ça va a l’essentiel. Les chaînes principales sont couvertes, l’offre de vidéo à la demande est clairement un plus, mais on tombe particulièrement vite sur les limitations. L’interface est assez chargée mais pourtant elle ne vous perds pas sous des tonnes de fonctions ou d’informations inutiles. Bref, aux premières captures d’écran je m’attendais à bien pire, quand j’ai pu voir l’interface du Cube Canalsat ou des anciennes Livebox Orange. Si vous avez des éléments à partager sur les box des autres opérateurs, faites-vous plaisir dans les commentaires. J’essaierai quand même de creuser un peu plus loin les capacités de ce boîtier donc il n’est pas exclus que j’en fasse un autre article plus tard.

Par rapport aux besoins de ma maman en terme de TV le bouquet de chaînes est trop limité, je pense aussi que l’offre de vidéo à la demande n’a rien d’exceptionnel et peut donc sans surprise être remplacé par mon deuxième écran de l’abonnement Netflix vu qu’il ne me sert pas, mais il est inclus dans l’abonnement donnant accès à la HD. Bref, comme c’est une option je pense qu’elle ne durera pas trop longtemps puisqu’on peut la désactiver quand on veut. Avec mon immobilisme de décembre j’ai eu tout le temps de chercher les alternatives, et une solution se profile.

En effet, pour accéder aux chaînes de TV que ma mère recherche, il est possible désormais de passer par un service relativement récent qui a su se faire une place malgré les combats menés par les chaînes de TV pour les empêcher de révolutionner l’expérience utilisateur : Molotov. Dans sa version gratuite si les services proposés ne sont pas spécialement intéressants (encore qu’on a accès au Replay, ce qui est déjà un plus par rapport à la TNT classique par exemple), une fois passé sur une option payante, ça commence à devenir très sexy : enregistrement de contenus (plus limités par la disponibilité courte en replay), passage à une diffusion européenne, diffusion sur quatre écrans en simultanés, et là ça concerne le premier palier de 4€ par mois, sachant que ces services supplémentaires sont aussi dispos dans les autres options.

Il y a justement une option extended à 10€ par mois qui rajoute des chaînes. On retrouve les services supplémentaires précédents, avec l’accès cette fois à quarante chaînes thématiques supplémentaires, jeunesse, sport, sciences et nature, on dirait les catégories de questions du trivial poursuit. Et parmi ces chaînes, celles que ma maman regarde le plus souvent sur CanalSat, en dehors de Ciné+. Sachant que ce tarif est le même que celui de l’option Videofutur. Le seul hic, c’est l’accès au service une fois souscrit. Il est évident que ma mère ne va pas remplacer une TV Full HD de 127cm et le Home Cinema 5.1 par son PC de 17″ et ses enceintes intégrées. Il va donc falloir trouver une « box » vidéo de remplacement.

Les options crédibles et suivies sont peu nombreuses. En gros, il y a la Nvidia Shield TV, qui commence à dater mais est toujours maintenue logiciellement, et la Xiaomi Mi Box, beaucoup moins cher mais moins puissante et uniquement orientée vidéo (sans parler de la disponibilité en France), là où la Shield a naturellement des capacités supplémentaires orientées jeu vidéo. En gros on est sur un rapport de 1 à 3 pour les tarifs, en one-shot facilement absorbables cependant. Et là, on a une expérience Android TV complète, ce qui veut dire Molotov, Netflix, Kodi, YouTube, RadioLine, bref, le catalogue d’applications Android. Je ne suis pas encore fixé sur le choix final, je compte quand même creuser encore un peu la box vidéofutur pour en savoir un max avant de repasser sur une solution adaptée. Et puis il reste encore la partie réseau à terminer de cerner. Bref, on a pas fini d’en parler.

G : En guise de teasing, ma mère prépare également son propre ressenti de son passage à la Fibre. Ça sera une première sur le blog : un billet invité de la part d’un non-technicien 🙂

La fibre chez ma mère, chapitre 1 : la box internet

samedi 5 janvier 2019 à 10:30

Comme je vous l’ai indiqué récemment, ma mère est enfin passée à la fibre. Il y a du bon et du moins bon, ce qui est sur c’est que l’adsl, c’est fini ici !

Une première bonne nouvelle

3 décembre, appel du technicien : un créneau s’est libéré, et il est possible de poser la prise aujourd’hui, soit une semaine en avance, mais c’est génial ! Oui mais c’est que j’ai rien reçu pour me connecter à interface client, donc coup de fil au service client, qui après trois minutes d’attente me répond implacablement, m’envoie les identifiants par mail pour parer au plus pressé, et déclenche l’envoi du courrier de bienvenue qui reporte ces informations et quelques autres.

Ce mail arrive dans la minute, rien à redire. Le technicien avait annoncé 10h30, mais en raison d’un client compliqué à gérer l’équipe arrive finalement à 11h.

Des travaux impeccables

C’est une équipe de deux techniciens qui se garent avec un fourgon équipé d’une nacelle. Cette nacelle sera mise à contribution car ici, point de réseaux enterrés, tout est en aérien sur les mêmes poteaux qui portent les réseaux cuivre dont le téléphonique qui n’en finit pas de vieillir et laisse pourrir l’ADSL. En effet, le boîtier de raccordement a été posé au bout de la rue, il faut donc tirer la fibre jusqu’à la maison, trois poteaux plus loin. Le câble, qui au premier abord ressemble à un câble d’antenne TV, est en fait un gros gainage de kevlar, qui recouvre un câble blanc qui lui aussi est empli de kevlar avec enfin au centre, la fibre qui grosso modo fait le diamètre d’un cheveu. Il faut dire que c’est fragile, la protection est donc primordiale, c’est aussi pour ça que je suis un peu anxieux par rapport au fait que l’installation est aérienne, il faut dire que les vents peuvent facilement dépasser les 100 km/h.

Le brin rouge, sachant que là il est est pas encore dénudé, donc c’est encore plus fin !

Il aura fallu deux heures pour finaliser l’installation (vers 13h). Impeccable, pas besoin de refaire 500 trous pour passer à travers le mur, juste à côté du meuble TV, le technicien en profite pour refixer la prise électrique qui ne tient plus que par l’opération du saint esprit, rien à voir avec les errements notamment des sous-traitants d’SFR qui vous salopent le boulot (j’ai entendu des histoires parfois ahurissantes de câbles téléphoniques ou TV coupés pour faire passer celui de la fibre).

Les premières surprises arrivent

Première surprise, il y a deux boîtiers : celui qui amène la fibre à l’intérieur, et un convertisseur fibre -> Ethernet qui vient avec un petit bloc transformateur d’alimentation. Je respire profondément, les appareils avec des transfos de ce genre, ça commence à me gonfler, parce qu’il est toujours compliqué de les brancher sur les multiprises, ça condamne très souvent une des prises. Donc rien que pour Internet, je vais avoir deux transfos : celui du convertisseur, celui de la NordNetBox Impulsion.

Deuxième surprise, alors que ce n’est pas mentionné, il y a un délai à l’activation de la prise. Le technicien nous indique avant de partir, généralement dans 24h, parfois chanceux dans la soirée. Un rappel au support technique m’indique maximum dans cinq jours. Je dois donc patienter, je branche la box et attend que les diodes s’allument.

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Troisième surprise, bonne nouvelle c’était dans la soirée ! Il faut laisser le temps à la box de faire ses mises à jour, pas de souci je suis en train de terminer un revisionnage des films Harry Potter, les deux derniers. À peine fini je prend mon PC, soulève la box pour récupérer le code WiFi par défaut et faire un test rapide en wifi et en Ethernet, car tous les câbles sont fournis. Le technicien m’a prévenu que le débit allait fluctuer un peu au début, pour progressivement atteindre le maximum le temps que les appareils se calibrent correctement. On tape déjà dans un peu plus de 300Mbps en montant ce qui est une très bonne nouvelle.

Je vais donc me coucher sur cette bonne nouvelle (il est une heure du matin), histoire de faire de beaux rêves de connexion qui fonctionne correctement.

Le chemin de croix du contrôle du réseau local

Le lendemain matin, j’attaque donc la recherche des paramètres du réseau local, à savoir contrôle du wifi, du DHCP, du DNS, de la redirection des ports qui seront nécessaires pour accéder à distance au réseau. Je sais déjà que ça va être la merde avec une adresse IP publique qui n’est pas fixe, mais bon, si le reste est là, on trouvera des solutions (j’ai déjà un domaine OVH dédié pour ma maman, et OVH propose de faire du DNS dynamique alors…).

Toutes les documentations papier ou en ligne de NordNet indiquent qu’il faut passer par l’interface client pour contrôler les paramètres notamment Wifi. Hein ? Allo ? On parle de contrôler un appareil local, via un site à distance ? Et si ça ne fonctionne plus, plus d’accès à rien ? Une connerie sans nom, qui me bouffait déjà avec la Freebox HD et m’avait poussé à utiliser mon propre routeur. Première problème : je confirme que si on peut accéder à l’espace client depuis n’importe quelle connexion pour gérer les infos courantes (facturation, etc), le déblocage des paramètres de la box se fait impérativement depuis la connexion de celle-ci.

Mais dans mon cas, j’ai une erreur, il me dit que l’interface est hors-ligne :

Bon, avant d’appeler je cherche quand même si une interface locale ne serait pas proposée, quand bien même elle ne serait pas documentée. On sort donc un petit nmap pour vérifier les ports ouverts sur l’interface privée :

Starting Nmap 7.70 ( https://nmap.org ) at 2019-01-04 00:54 CET
Nmap scan report for NordNetBox_Impulsion.Home (192.168.5.1)
Host is up (0.017s latency).
Not shown: 992 closed ports
PORT     STATE    SERVICE
21/tcp   filtered ftp
22/tcp   filtered ssh
23/tcp   filtered telnet
80/tcp   open     http
139/tcp  open     netbios-ssn
445/tcp  open     microsoft-ds
631/tcp  open     ipp
5431/tcp open     park-agent
MAC Address: F8:AB:05:86:5F:16 (Sagemcom Broadband SAS)

Il y a une interface web locale apparemment sur le port 80, mais je n’ai pas les accès, j’ai testé tous les identifiants rien ne fonctionne. Donc nouveau coup de fil au service client, pour avoir un technicien cette fois-ci, histoire de débloquer un peu la situation. Verdict : c’est l’heure du midi, c’est pas la peine d’essayer, « tous nos conseillers sont déjà en ligne ».

J’ai donc rappelé en début d’après-midi, j’ai attendu un peu plus de cinq minutes. Réponse : y’a un bug sur toutes les box fournies depuis le début décembre, le profil client n’est pas appliqué et donc impossible d’accéder en local ou à distance à la box. Il sera adressé fin janvier globalement pour tous les clients, en attendant c’est traité au cas par cas, j’attends soit demain soit après-demain que la mise à jour soit poussée manuellement (la box redémarre automatiquement, ils passent la maj firmware dans la nuit).

Donc j’attends… En parallèle j’ai installé le décodeur Videofutur, une autre aventure… que je traiterai dans le chapitre 2.

Quelques liens en vrac et en français, 30° édition

lundi 31 décembre 2018 à 12:00

Allez, c’est Noël, on va solder les liens qu’il me restait en stock pour repartir « vierge » en 2019. Une cure détox pourrait-on dire, avec pas mal de sujets couverts, une vision d’ensemble du futur pas vraiment brillante, pourtant cette année mon déprime habituelle est plutôt faible comparée à mon immobilisme forcé. Vivement l’année prochaine.

Retour d’expérience sur une politique de mot de passe zxcvbn en entreprise

En plus de faire du podcast intéressant, le Comptoir Sécu propose maintenant des articles écrits comme ce très intéressant retour d’expérience sur la gestion des mots de passe en entreprise, et surtout comment organiser la transformation auprès des collaborateurs. Je ne peux que vous conseiller de vous abonner au flux RSS 🙂

Algorithmes partout, intelligence nulle part

Vous avez probablement vu passer sur vos réseaux sociaux l’histoire de Gillian Brockell, cette femme dont la perte de son enfant mort-né est déjà particulièrement douloureuse doit se battre contre le web que nous ont construits Google et Facebook pour faire son deuil. Olivier Ertzscheid, enseignant chercheur en sciences de l’information et de la communication, alias Affordance, nous présente une traduction de la lettre ainsi qu’une analyse de la situation comme tout bon chercheur sait le faire (sans parler des mises à jour pour le moins… ahurissantes). Encore un à suivre, mais attention, les lectures prennent beaucoup de temps.

Pourquoi votre smartphone sait tout de vous et comment elle s’en sert

Il y a probablement une faute de français dans ce titre mais ça n’enlève rien à la qualité de cette infographie créée par la CNIL qui vous montre à quel point la géolocalisation de votre téléphone par toutes les applications que vous y avez installé peut être un problème. Je suis tout de même plus réservé sur le dernier conseil concernant la mise à jour du logiciel du téléphone, quand on connaît la politique des fabricants de ne rien mettre à jour pour vous vendre plutôt un autre appareil.

Donner du peps à LibreOffice : de l’art de la personnalisation de la suite bureautique libre

Changeons un peu de registre en laissant temporairement la morosité de côté, pour parler personnalisation des logiciels, en l’occurrence LibreOffice. Parce qu’adapter son outil à ses besoins est toujours plus efficace que de se contraindre soi-même à l’ergonomie de l’outil, et parce que c’est un logiciel libre qu’il faut arrêter de considérer comme un jouet et continuer de demander à tout bout de champ « comment on pirate Office ? »

Pour se débarrasser de son Internet, on dit qu’il a le terrorisme

Quand je vous disais que le morose était de mise, nos dirigeants se préparent à carrément abandonner la censure des contenus sur le web aux multinationales US sans même se planquer, une fois de plus avec la très mauvaise excuse du terrorisme. Sous prétexte que moins il y a d’acteurs, plus c’est facile à contraindre (et économiquement soutenable), tranquille, on lâche l’affaire. Dans la droite lignée de Google à la formation en informatique, Microsoft qui siphonne et formate les usages et comportements dans les écoles… je l’avais dit, un futur bien sombre.

Facebook vous écoute-t-il ?

De mon point de vue contraint aux chaînes de télé ces dernières semaines, nul doute que les enceintes connectées espionnes ont été un cadeau prisé sous les sapins cette année. Alors même qu’on connaît leur dangerosité, mais personne n’en parle. Ici c’est un acteur qui n’a pas encore son propre matériel, Facebook, qui est mis en lumière via le comportement de son application mobile que tout le monde a dans sa poche ou presque.

L’histoire de la création de Linux

Si vous entendez souvent parler de Linux en tant que système d’exploitation, c’est bien d’abord d’un noyau dont on parle, et sa création, ses inspirations sont très intéressantes quand on se repenche sur le contexte. Ce petit résumé d’histoire est très plaisant à lire qui plus est, alors pourquoi s’en priver ?

La sauvegarde de MySQL Server avec Percona Xtrabackup

J’ai eu l’occasion d’utiliser intensément Xtrabackup dans le cadre d’une migration de plateforme et je dois dire que c’est un bonheur de logiciel libre. Voir un guide pratique en français est toujours agréable (autour des articles sur les nouveautés de Mysql Server 8), beaucoup plus digeste que la doc officielle surtout, je ne peux donc que vous recommander de garder ça dans un coin. Merci Denis 🙂

Désinstaller des applications système d’Android

Une des plaies d monde Android vient de la personnalisation à outrance du système d’un téléphone à sa livraison, et surtout l’absence parfois quasi totale du contrôle sur les applications embarquées, qu’il est impossible de désinstaller complètement. Il semble exister tout de même une solution, pas du tout accessible au commun des mortels, et toujours à vos risques et périls, mais une solution quand même pour libérer un peu l’espace de stockage de son appareil.

Pourquoi nous sommes piégés sur YouTube

Monsieur Bidouille présente une super vidéo pour confirmer ce que j’avançais sur les problèmes non résolus des plateformes alternatives fédérées, à savoir pourquoi YouTube n’est pas prêt de perdre son statut de leader (surtout au regard des volontés des censures de nos dirigeants, cf les liens plus haut). Non pas que je suis fier de dire que j’avais raison, mais ça fait plaisir de voir qu’on fait mouche, surtout quand la confirmation vient d’un des premiers concernés.

Fonctionnement et configuration d’OPcache

A la base, PHP est un langage dit interprété, c’est à dire que le code est lu et exécuté en temps réel. Mais pour augmenter les performances, il existe des mécanismes de compilation « juste à temps » qui traduit un même code en une représentation plus performante lors de sa première lecture. Opcache est ze mécanisme de choix, et sa configuration peut encore être améliorée en fonction de votre contexte, amenant toujours plus de performance.

Effets du chiffrement omniprésent sur les opérateurs

Lors des discussions autour de TLS 1.3, qui doit gérer le futur de la sécurité de nos communications, en particulier sur le web, les états et certaines entités privées se sont levées pour dire tout le mal qu’ils pensaient de la sécurité de nos communications (en gros, le chiffrement les empêche de pouvoir tout espionner). Ils ont donc cherché à jouer le jeu des « standards » d’Internet en publiant une RFC regroupant leurs revendications et pratiques douteuses, sans se remettre en question une seule seconde. Ça en serait presque drôle si justement des états n’étaient pas impliqués dans le processus.

Mode maintenance avec nginx

Certains moteurs de sites web disposent de mécanismes intégrés permettant d’afficher une page temporaire lors de manipulations qui nécessitent l’absence d’interaction avec les utilisateurs. Mais quand on a pas un tel mécanisme à disposition, on peut du coup se reposer sur le serveur Web, ici, on a un exemple d’implémentation avec Nginx, d’autant plus ingénieux qu’il suffit de la présence d’un fichier ou pas pour déclencher la bascule, on peut donc donner le contrôle au propriétaire du site sans qu’il aie accès au serveur web qui nécessite des permissions administrateur.

L’effet du RGPD sur les trackers des applications Android, selon Exodus Privacy

Le règlement générale sur la protection des données a commencé à bouger pas mal de lignes, espérons en notre faveur, en signant la fin de la récré chez les sociétés malveillantes violant votre vie privée à outrance via une collecte abusives de données. A ce sujet, Exodus Privacy travaille à identifier les plus mauvais élèves en matière de trackers dans les applications mobiles, et a fait un bilan « applicatif » plusieurs mois après l’activation du règlement. Bilan pas super glorieux, mais tout n’est pas noir.

PHP FPM : récupérer la vraie adresse IP du visiteur

J’avoue que j’ai rarement eu besoin de me poser la question, pareil chez mes clients qui sont dans une situation similaire. En effet, quand il y a un ou plusieurs intermédiaires, l’application web n’a pas connaissance de l’adresse du visiteur mais du dernier intermédiaire en question. Cependant, dans ce cas on indique l’adresse IP en question dans un entête HTTP dédié, mais si l’application n’en tire pas explicitement parti, voici une méthode pour s’assurer de le récupérer côté PHP-FPM.

Et si vos comptes disparaissaient demain ?

Je vais exceptionnellement citer le premier paragraphe du billet :

On a tendance à l’oublier mais, aujourd’hui, la plupart de nos interactions sur le net ont lieu à travers des plateformes centralisées. Cela signifie qu’une seule entité possède le pouvoir absolu sur ce qui se passe sur sa plateforme.

Voilà, pas la peine de paraphraser, je vous laisse lire le reste sur le site de ploum.

Réduire le nombre de TIME_WAIT généré par les applications

J’ai déjà eu le tour dans le passé suite à une bug applicatif chez un client, et même si c’est rare il est déjà arrivé qu’un serveur soit « débordé » par un nombre trop importants de connexions TCP qui n’ont pas été fermées correctement. Pour pallier partiellement à ce problème, on peut agir au niveau du noyau linux via quelques paramètres de la pile réseau. Au passage ça profitera à toutes les applications, alors pourquoi s’en priver ?

Le point sur l’authentification à deux facteurs

Utiliser un deuxième facteur d’authentification permet de renforcer de manière drastique la sécurité de l’accès à un compte, au delà du très classique couple « identifiant/mot de passe ». Ce facteur supplémentaire peut prendre plusieurs formes, les connaître est un bon début pour savoir quoi implémenter dans vos applications, ou l’activer sur les services qui le proposent.

HowTo Nginx

Evolix est une société qui fait de l’infogérance de solutions open-source sous Debian et OpenBSD. ils publient sur leur wiki des configurations sur tous les logiciels qu’ils manipulent, et en guise de mise en bouche sur cette base de connaissances qu’il faut garder dans un coin, j’ai choisi de vous partager la section qui concerne Nginx, tout simplement parce qu’elle m’a récemment servi.


Pfiou, ce fut long, mais c’est fini pour 2018, 19 liens c’est le double de d’habitude. Sachant que l’activité risque d’être chargée en début d’année prochaine, autant dire qu’il était nécessaire de remettre les compteurs à zéro. Surtout que ça s’annonce pas super encourageant pour notre société…

Les extensions Firefox que j’utilise en cette fin d’année, et probablement pour 2019

samedi 29 décembre 2018 à 10:30

Lors de mon dernier article sur Firefox, j’ai évoqué que l’environnement Webextensions avait bien évolué, et que les développeurs s’étaient eux aussi sortis les doigts du cul pour remettre leurs extensions au goût du jour (ils avaient eu plus d’un an pour le faire, mais c’est évidemment une fois trop tard que ça se réveille). Du coup mon propre « catalogue » d’extensions a lui aussi bien changé. Voyons voir maintenant de quoi j’agrémente mon outil préféré du quotidien.

L’indispensable protection de base : l’adblocker

De la même façon qu’on n’envisage plus Windows sans antivirus (au point que Microsoft en a intégré un à Windows 10, et qu’il n’est pas le pire de sa catégorie), il est impossible d’envisager désormais un navigateur web sans bloqueur de publicités et autres outils de pistage. Les lignes n’ont pas bougé de ce côté et uBlock Origin reste la référence. Libre à vous de gérer quelques choix concernant les listes de filtres, ou de créer vos propres filtres spécifiques pour certains sites. Avec le blocage par défaut des contenus distants dans Firefox, y’a déjà pas mal de choses qui peuvent être bloquées simplement sans faire de dégâts. Ça n’empêche pas les sites marchands ou les journaux français de continuer d’abuser salement, donc une deuxième capote reste nécessaire.

Virer presque toutes les variables Google Analytics

Vous avez déjà vu des liens à rallonge avec des paramètres « utm=blabla&utm_referer=truc.. » ? Ce sont des balises de pistages Google Analytics. Pour éviter de les envoyer à Google, j’utilise la petite extension « Au revoir UTM » qui permet de pratiquement tout supprimer avant de faire les requêtes.

Récupérer des fonctions RSS

Le sujet du RSS est revenu sur le devant de la scène avec la suppression du support des marque-pages dynamiques par Firefox (au passage sur mobile on voit la source XML et ça pourrait être sympa d’avoir la même chose sur desktop). Pour récupérer quelques fonctions et notamment la détection des flux, j’ai suivi un peu les recommandations d’autres personnes et installé Awesome RSS, ça fait le boulot, c’est léger, c’est tout ce qu’on demande. Pour la lecture j’utilise déjà autre chose mais ça peut vous intéresser.

Une meilleure gestion des Cookies

Les fonctions concernant les cookies ont bien évolué dans Firefox, mais l’ergonomie n’est pas toujours au top. L’extension Cookie Quick Manager permet dans une interface claire de parcourir et de manipuler tous les cookies, avec un filtrage possible par domaine. Le bouton de la barre principale permet également de faire le ménage en un clic pour un site en particulier, ce qui peut s’avérer utile dans pas mal de cas.

Decentraleyes : économisez de la bande passante

Il n’est pas rare que les sites que vous utilisez souvent reposent sur des dépendances tierces qui sont hébergées ailleurs que sur le site en question. Ce qui veut dire moultes requêtes supplémentaires, et donc indications pour les fournisseurs concernés du site que vous visitez. Oui, encore une façon de vous pister. Cette extension enregistre en local ces ressources (en identifiant leur provenance), et la prochaine fois que votre navigateur doit les récupérer, c’est la version locale qui est préférée, ce qui économise des requêtes distantes qui peuvent ralentir le chargement, sans parler de la consommation de données (c’est utile sur mobile). Comme pour uBlock Origin, dans de très rares cas ça peut être bloquant et il est facile via l’icone de le désactiver temporairement.

Flagfox

Pas indispensable, mais elle permet de voir rapidement dans la barre d’adresses un drapeau indiquant dans quel pays est hébergé le site que vous consultez, ou du moins sont point d’entrée. Je ne sais pas encore si c’est possible d’avoir des statistiques, mais il y a fort à parier que vous passez beaucoup trop de temps aux USA ou en Irlande. Mais comme dit, les points d’entrée peuvent être trompeurs.

Les bandeaux de cookies : y’en a marre

J’ai du mal à jauger de l’efficacité réelle de cette extension, surtout depuis cet été avec la mise en application du RGPD et donc des modifications apportées à ces fameux bandeaux. Vous savez, ceux où le site doit vous informer qu’il enregistre des informations sur votre navigateur pour son propre besoin et surtout ceux de ses publicités, avec l’impossibilité de dire non sans bloquer manuellement de son côté via le navigateur. En tout cas elle est maintenue, elle est présente et ne consomme pratiquement rien, alors voilà, rien que pour le titre ‘I don’t care about Cookies‘, je vous la met ici.

IP Address and Information

Plus réservée aux utilisateurs avancés (administrateurs système, développeurs), cette extension vous permet d’afficher pas mal d’informations sur le domaine, l’adresse IP, comme le propriétaire de ladite adresse IP, les ports ouverts, les domaines qui peuvent être présents sur l’adresse IP, les voisins… (on a pu découvrir comme ça certains clients déménager pour un concurrent sans nous avoir prévenu…).

KeepassXC-browser

Cette extension de sécurité est rattachée au coffre-forts de mot de passe KeepassXC, réécriture de Keepass en C++ pour moins sentir la naphtaline. Mais comme je cherche une méthode simple et transmissible de partage entre mes appareils (laptop, desktop, smartphone), pas dit que ça survive toute l’année si je trouve une autre méthode et/ou un autre outil qui correspond mieux à mes attentes, voire même carrément un fournisseur de services cloud mieux intégré/fini, quitte à le payer. Non, PHP Password Manager n’est pas une solution (encore qu’il y a certaines solutions, Aeris t’en penses quoi ?) 😀

Le RGPD dit qu’on peut refuser, donc on refuse

En effet, maintenant que les sites doivent nous préciser TOUS les usages et partenaires qui exploiteront les données collectées, et qu’ils sont censés arrêter quand on leur dit non, une solution s’est répandue comme une traînée de poudre sur le web francophone notamment : Quantcast. Problème, sans parler de la taille que ça prend, si on peut désactiver pratiquement l’intégralité des collectes, l’interface n’est pas faite pour aider, et certains sites vous découragent en proposant de désactiver chaque partenaire, un par un, et parfois ça dépasse les deux cents lignes. Des connards quoi. A coté vous avez un bouton « tout accepter » évidemment. Une fois de plus, vous ne pouvez pas dire non facilement. Enfin presque.

Un développeur a conçu une petite extension après avoir analysé le code, qui ajoute un bouton « Tout refuser » sur les bandeaux Quantcast : Qookiefix. L’esprit de la loi est mieux respecté, et vous pouvez réellement désormais dire non simplement. Et il serait temps que les fournisseurs de services se rendent compte qu’ils ne peuvent pas non plus faire n’importe quoi.

Stylus

Je vais pas m’étendre longtemps sur celle-ci, vu que j’ai déjà fait un article complet et surtout une vidéo pour vous présenter le concept en action. Vous savez à quoi vous en tenir.

Youtube RSS finder

Pareil, vu que je viens de faire un article tout frais sur le sujet, je vous laisse le (re)lire si vous voulez en savoir plus sur on utilité.

RESTClient

Là si vous n’êtes pas développeurs, ça risque pas de vous concerner. C’est un utilitaire qui permet de forger et de tester vos requêtes vers les API (et comme je suis en train de finaliser la mienne pour ma collection de films, ben…), de les conserver en favoris pour les ressortir, les modifier, le résultat est affichable dans différents formats, bruts ou mis en forme (pratique pour le JSON), et vous avez les commandes curl correspondantes si vous voulez tester dans un autre contexte (CLI), voire l’intégration dans votre application.


Voilà c’est tout, comme je l’ai indiqué certaines risquent de sauter dans l’année, et d’autres pourraient venir s’ajouter à la liste. Mieux, étant donné que Webextensions a été conçu pour se rapprocher du développement des extensions de Chrome, beaucoup sont maintenant disponibles sur les deux univers, ou disposent d’alternatives plus que crédibles. Comme d’hab, j’installe pas tout et n’importe quoi, car une extension codée avec le cul peut vite faire sauter la facture « ressources », et vous savez ce que j’en pense et c’est toujours d’actualité même avec les évolutions récentes.

Ça c’est quand on arrive sur une vidéo YouTube

En complément, je ne peux que vous conseiller d’aller lire les billets « Calendrier de l’avent » du blog mozfr, chaque jour ils ont présenté une ou plusieurs extensions pour différents usages, vous pourriez trouver des choses intéressantes à ajouter à votre butineur préféré (pour les plus pressés y’a un récap à cette adresse). Pareil, si vous pensez que certaines de ces extensions pourraient être avantageusement remplacée par d’autres, foncez dans les commentaires pour partager vos usages, ça me fera très plaisir.

@+ dans le bus 😉

UPDATE : promis on ne s’est pas concerté, mais Denis a également sorti son attirail d’extensions Firefox « Quantum » qui est particulièrement fourni en ce week-end. Bonne lecture complémentaire 🙂