PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Les avantages et inconvénients du jeu sous Linux

mercredi 30 janvier 2019 à 18:30

J’entends moins souvent la critique ces deux dernières années, mais elle existe encore : Linux c’est pas fait pour jouer et y’a pas de jeux dessus. C’est d’autant moins vrai maintenant, mais notre plateforme préférée n’est pas encore le paradis sur terre, voyons donc quels sont les points forts et les points faibles qui caractérisent la banquise pour les jeux vidéos sur PC.

Un monde bien plus accueillant qu’avant…

Historiquement le jeu vidéo sur PC reste un frein majeur à une libération de nos machines d’un Windows dont la version 10 et ses différentes itérations depuis sa sortie sont vraiment à éviter autant que possible. Mais depuis plusieurs années maintenant, et notamment grâce à un soutien majeur de la part de Valve, Linux peut vraiment être considéré comme une alternative crédible pour piloter votre matériel.

En effet, pour ceux qui débarquent, Valve est une société de développement de jeux vidéos qui aura permis au monde de découvrir Half-Life, Counter Strike, Portal, DOTA2, Left 4 Dead et surtout, Steam. Sorti en 2004 avec Half-Life 2, Steam est une plateforme communautaire, et une boutique en ligne, leader sur le marché PC. En 2013, après des mois de rumeurs Valve présente SteamOS et les Steam Machines, des PCs livrés sous un OS à base de Debian Linux pensés comme des alternatives aux consoles de salon. Steam lui-même est disponible depuis fin 2012 pour les différentes distributions (officiellement Debian et Ubuntu sont les seuls supportés), et tous les jeux Valve sont adaptés pour tourner sous Linux, permettant de montrer que non seulement c’est faisable, mais surtout que les performances sont là (ils ont même eu des surprises avec certains jeux plus performants sous Linux que sous Windows). Valve contribue et publie plusieurs outils facilitant le portage et le développement, remonte quantité de bugs aux pilotes open-source notamment graphiques, bref, qu’on soit pour ou contre le jeu « propriétaire », la contribution de Valve dans le domaine pour notre plateforme préférée est indéniable.

La moitié presque de ma bibliothèque, et je n’ai pas testé avec Proton

Au point que les principaux fournisseurs de moteurs de jeu, Unreal Engine 4 pour Epic, Unity, CryEngine, proposent tous un support natif de Linux comme plateforme cible. Pour ceux qui ne veulent pas prendre directement en charge la plateforme, des experts dans le domaine du portage émergent ou reviennent sur le devant de la scène, dont un majeur est Feral Interactive, à qui on doit la disponibilité de gros titres comme Alien Isolation, Mad Max, Deus Ex Mankind Divided, Tomb Raider (depuis le reboot de 2013), plusieurs titres Warhammer et XCOM. D’autres titres un peu plus anciens ont vu leur portage natif aussi, comme les titres 2033, Borderlands, Rocket League, Worms, The Witcher, et comme je l’ai dit quantité de titres indépendants, aidés par leur moteur qui propose un support natif.

Dernièrement, Valve a initié le projet Proton. Basé sur WINE, qui est une couche de traduction permettant d’exécuter directement des programmes conçus pour Windows sous Linux, Proton se concentre sur les jeux vidéos et permet de lancer une quantité toujours plus importante de jeux prévus uniquement pour Windows directement sous Linux. Le logiciel est jeune, le support est variable en fonction des jeux, mais le travail est déjà impressionnant. Dommage par contre qu’on ne voie pas les corrections et améliorations remonter sur le projet d’origine (probablement parce que certaines optimisations peuvent être protégées par des brevets). Le projet est encore en beta et les remontées sont plus que bienvenues pour les titres qui ne sont pas encore supportés correctement.

Steam n’est pas le seul acteur à proposer de distribuer des jeux sous Linux, GOG est un autre acteur qui joue la carte du « sans DRM » pour la plupart des jeux, en tout cas pas de DRM maison par défaut, qui est l’un des points noir de Steam qui a malheureusement contribué à son succès (les éditeurs voulant à tout prix s’assurer qu’on ne peut pas copier leur jeux). Le catalogue est cependant moins fourni, mais les titres disponibles sous Linux sont facilement accessibles, et installables sans client dédié. Autant dire que faut être un gros consommateur pour être en manque sous Linux désormais.

Un autre aspect qu’on oublie facilement lorsqu’on parle de jeu vidéo, c’est la communication entre joueurs, et là aussi, aucun problème sur la banquise. Teamspeak, Mumble, Discord, les trois gros représentant de la discussion audio sont présents. Pour la technique Mumble et Teamspeak utilisent Qt comme bibliothèque d’interface, les rendant légers, Discord a malheureusement fait le choix d’Electron, vous consommez donc plus de 200Mo de mémoire pour profiter du service (Electron en gros package une appli web avec un navigateur web Chromium, et un nodejs en dessous, que des outils lourdingues).

Dans le même esprit, si vous comptez diffuser vos parties en direct (parce que vous êtes suffisamment équipés aussi bien en matériel qu’en connexion fibre), Open BroadCaster Software est également présent et de ce que j’ai pu en juger par mes premières manipulations, tout aussi capable que sous Windows.

Mais il manque encore pas mal de choses

En parlant de communication, un des points noirs du « gaming » sous Linux concerne les périphériques. Non pas qu’ils ne sont pas reconnus, généralement les claviers, souris et casques USB sont reconnus quand ils sont branchés, par contre, les outils pour le paramétrage des fonctions avancées, c’est pas la même sauce. Ils sont tout simplement inexistants, pour certains dont les paramètres sont stockés dans une mémoire interne ça peut éventuellement se contourner (on configure sous Windows et on utilise sous Linux), mais généralement c’est pas Byzance. Si vous n’utilisez pas les fonctions avancées de vos périphériques (contrôle des LED, programmation des touches supplémentaires), vous pourrez tout de même profiter de votre matériel dans les mêmes conditions. Par exemple, je n’avais pas vu d’interface pour ma manette d’Xbox 360, pourtant j’en profite régulièrement.

Si pendant des années les initiatives indépendantes d’interfaces de gestion ont difficilement existé et se concentraient parfois sur un seul modèle très populaire (souris ou clavier), avec justement l’élargissement de l’offre, plus de développeurs ont attaqué leurs périphériques, certains fabricants soutiennent presque officiellement certaines initiatives. Là je vais pas trop m’étendre sur le sujet, un confrère a fait plusieurs articles très bien fait sur le sujet que je vous invite à lire. Avantage, entre autres pour Razer, c’est que vous pouvez du coup utiliser une interface qui ne vous demande pas d’abandonner quelques informations personnelles pour utiliser du matériel (oui, Razer Synapse vous demande de vous inscrire avec une adresse e-mail pour gérer votre souris sur votre ordi). Roccat semble être un fabricant à contre-courant puisqu’il a développé et publié pilotes et utilitaires, plutôt cool non ?

Si Proton est une initiative intéressante qui avance très vite, tous les jeux ne pourront pas être supportés à cause de certaines technologies sales qui sont très dépendantes de l’architecture du noyau Windows. En particulier, pour prendre l’exemple de PUBG, techniquement il utilise l’Unreal Engine 4, donc il pourrait supporter Linux nativement, mais l’outil anti-triche qu’il embarque fonctionne de la même façon qu’un antivirus qui est fortement dépendant des technologies bas-niveau du système d’exploitation, qui ne peuvent pas être traduites. Il n’est pas seul sur le sujet, pendant plusieurs années si je pouvais faire tourner Call of Duty 2 et 4 sous Linux via Wine sans difficultés particulières, un des éléments disqualifiant pour jouer en ligne était Punkbuster.

Je pense que c’est explicite…

Aussi, plusieurs gros éditeurs qui lient leurs jeux à un lanceur spécifique (faisant aussi office de boutique en ligne maison, comme Steam) sont mécaniquement absents sous Linux : UPlay (Ubisoft), Origin (EA), Battle.net (Blizzard), sont toujours limités à Windows, parfois dispos sous Mac (pour Blizzard). Exit donc les Assassin’s Creed, Far Cry, Battlefield, Overwatch… Je ne sais pas comment ça a évolué, mais j’avais pu en 2008 jouer à WoW sur mon HP sous ArchLinux via WINE, mais certains se sont vu bannir parce qu’on considérait qu’ils cherchaient à tricher, ce qui est toujours gênant (perso je m’en foutais je jouais sur un serveur privé). L’offre restera donc toujours moins complète que sous Windows, mais si ces gros titres ne vous intéressent pas, que vous êtes un drogué des jeux indés, alors ça pourra tenir le choc. Les raisons sont souvent économiques avant d’être techniques (encore que ma réflexion sur les moteurs de jeu me semble toujours d’actualité), les gros éditeurs ont de gros sous à faire pour satisfaire des actionnaires avant de faire plaisir aux joueurs et aux développeurs.

Malgré les améliorations qui sont plus que significatives, le support des pilotes graphiques reste encore très problématique sous Linux. Souvent, les éditeurs indiquent seulement un support officiel uniquement pour le pilote Nvidia propriétaire, car c’est finalement le plus facilement prévisible. En effet, le caméléon distribue son pilote sous une forme packagée indépendante de la distribution, comme sous Windows, quand du côté des pilotes open-source c’est beaucoup plus bordélique. En effet, entre le DRM (la partie noyau), la partie user-space (Xorg/wayland), la partie MESA, chaque distribution propose donc son propre cocktail de versions des différents composants qui sont moins facilement mis à jour (à part sous Arch Linux/Manjaro). C’est notamment le cas pour Intel, même si celui-ci propose d’installer les derniers composants via une batterie d’outils d’installation sur son site, et chez AMD c’est tellement la foire que j’ai perdu le fil, à un moment donné il y avait trois pilotes différents, dont le support était très différent en fonction des générations de matériel. Jouer donc avec ces pilotes est très aléatoire, et vous êtes tous seuls quand vous rencontrez un problème. Pire, ne comptez pas sur une interface graphique pour manipuler finement les paramètres pourtant nombreux de ces pilotes graphiques, seuls les chemins dans /proc et /sys peuvent vous aider. Pour ma part j’ai pu tester les jeux Valve, Rocket League, Serious Sam 3, sur le laptop avec la carte intégrée Intel, qui n’est absolument pas faite pour ça mais ça fonctionne (faut salement baisser les réglages pour que ça soit fluide). Mais c’est pas une évidence. Ça limite donc le choix sur le matériel, Nvidia reste une préférence même sous Windows.

Et les jeux « libres » ?

De par l’investissement demandé, aussi bien technique mais surtout artistique, les jeux libres/open-source ne sont pas légion, même si certains titres vivent très bien. Unvanquished, 0ad, SuperTux Kart (qui va bientôt finaliser son mode multijoueurs en ligne), j’en ai chié sur SuperTux, un « clone » de Super Mario Bros avec notre manchot préféré en guise de protagoniste, pas parce qu’il est mal fait mais il devient vite exigeant et je ne suis plus vraiment une brutasse dans les platformers (pourtant j’ai kiffé Splasher), Armagetron réveillera la nostalgie des adorateurs de Tron, certains s’attaquent à recoder le moteur de jeux comme Command and Conquer (Red Alert), Total Annihilation, bien que les données restent propriétaires… D’autres projets dont je n’ai pas forcément connaissance pourront vous donner à la fois du fil à retordre mais aussi de longues heures de plaisir, vous aurez par contre à composer avec une qualité graphique et/ou sonore un peu en dessous des standards du monde commercial.

Un dernier élément qui peut être intéressant, le monde du retrogaming n’a pas oublié la plateforme polaire, et donc les émulateurs sont légion. En effet, vous avez probablement entendu parler des projets comme Recalbox qui ciblent le Raspberry Pi, qui ne font que prépackager les émulateurs et les optimisations pour la plateforme. Ces émulateurs sont évidemment disponibles sur une distribution plus classique, là aussi vous pourrez monopoliser une quantité de temps non négligeable à (re)découvrir des titres du passé, avec l’avantage par rapport au Rapsberry de pouvoir jouer à plus récent (je pense aux plateformes comme la Wii, potentiellement la Xbox 360 (j’ai pas pris le temps de chercher mais en 2015 déjà ça avançait), sûrement la PS3 même si ça peut demander une machine solide pour en profiter. L’aspect légal est toujours compliqué alors je vous laisse décider, mais c’est là.

Windows n’est plus la seule option

C’est ce qu’il faut retenir de cet article finalement. Quand on fait l’inventaire de ses usages, de ses matériels, que rien ne semble être bloquant y compris dans ce bastion qu’est le jeu vidéo, alors il n’y a aucune raison de conserver Windows sur son PC. J’ai déjà pu le dire et le redire, mais si vous êtes prêt à faire l’effort de vous libérer d’une plateforme qui vous plaît de moins en moins, franchement, entre collecte indue de données, absence de contrôle sur les mises à jour, installations de logiciels pénible (sans parler du Windows Store), vous trouverez certainement dans l’univers Linux la distribution qui vous siéra, qui siéra à votre matériel, bref, votre bonheur, parce qu’avec un monde qui devient de plus en plus tourné vers le numérique, il est plus que nécessaire de disposer des bons outils, des outils qui vous servent avant de servir leur fabricant/développeur.

Tumblr se suicide, mais le Web gagne-t-il pour autant ?

dimanche 27 janvier 2019 à 10:30

Pour ceux qui ne connaissent pas Tumblr, c’est une plateforme de blogs américaine rachetée il y a quelques années par Yahoo, et appartenant maintenant à Verizon, qui est très populaire par sa facilité d’utilisation (bien que frustrante pour certains), et très prisée par les producteurs indépendants de contenus « adultes », notamment photo (avec une forte présence féminine, ce qui est plutôt rare étant donné que les plaisirs adultes sont majoritairement partagés pour et par des hommes en général). C’est aussi un haut lieu des communautés dite alternatives (vous connaissez l’acronyme LGBT ? ça en fait partie). Mais Tumblr veut faire le pari du puritanisme à l’américaine en expulsant les utilisateurs et leurs contenus (interprétation). Les conséquences sont à la fois bonnes et peu attrayantes, suffisantes pour en discuter ailleurs qu’en retweetant un truc.

NB : Je tiens à préciser ici que je n’aborde pas volontairement la problématique de l’accès à ces contenus, notamment par les mineurs, un point qui n’est pas souvent abordé par les médias américains mais qu’on met trop rapidement en lumière en France sans jamais prendre de bonnes décisions. J’ai déjà une réflexion en cours sur le sujet, mais elle demande beaucoup de boulot de recherche, je la publierai certainement cette année parce que c’est un sujet qui me tient à cœur quand bien même je n’ai pas d’enfant (la plupart de mes amis et pas mal de collègues de boulot sont parents, et sont très connectés numériquement).

Alors techniquement aucun contenu n’est supprimé de la plateforme, mais tout est tellement masqué que ça ne sert à rien de publier un contenu qu’on ne pourra pas partager même gratuitement (surtout gratuitement, je ne me souviens pas avoir vu Tumblr proposer de rémunérer les auteurs sur leurs plateformes). Bref, si plus de visibilité, autant se barrer, puisque publier ne sert plus à rien. Mais ce n’est pas sans conséquence. Et le mouvement que j’ai vu naître, pour suivre moi-même quelques blogs de photos de nus (Bonjour Madame est l’un d’entre eux), est une migration massive vers des blogs sous moteurs WordPress, comme le site sur lequel vous vous trouvez actuellement (mais vaut mieux pas me voir nu, je vous assure), avec en dessous plusieurs méthodes pour l’hébergement, ainsi qu’une batterie d’extensions propres à chaque auteur de site.

Parmi les points positifs, le fait de se libérer d’un acteur américain centralisateur et ayant prise sur la publication et la visibilité des contenus est toujours une bonne chose. Tumblr était parfois montré du doigt pour ses limitations sur le design des sites, et une fois de plus sa politique débile sur les contenus. Basculer sur un site indépendant rend donc pas mal de libertés à leurs créateurs, et en soi WordPress, base technique qui représente déjà environ 30% des sites du web visible n’est pas le plus mauvais qu’on peut faire pour disposer rapidement d’un outil de publication à même de répondre à ses besoins. Surtout que ça peut aider pas mal le référencement, un point qui va être sensible lors de cette migration. Dans tous les cas l’outil est facile à prendre en main ce qui permettra aux créateurs de se concentrer sur leurs contenus, et c’est pour ça qu’on les suit. Voire créer de nouvelles interactions qui n’étaient pas possibles sur Tumblr.

Pour les points négatifs, le niveau de gravité est variable, il ne faut donc pas prendre ça comme une liste ordonnée. D’abord, maintenant que chaque site est indépendant, on perd un des points qui faisaient de Tumblr une plateforme intéressante, un réseau social de blogs, à savoir la capacité pour un utilisateur de « reblogger », à la manière des tweets, un article d’un blog sur son propre blog. Cela permettait à certains sites d’être de véritables chercheurs d’or, vous faisant découvrir d’une simplicité déconcertante un site correspondant à votre intérêt (votre kiff ce sont les rousses ? –c’est dans le sujet hein). Libre à vous ensuite de le suivre ou de récupérer le flux RSS. Jusqu’à ce que certaines extensions ou fonctions de thèmes soient développées, vous perdez quelques fonctions comme l’affichage simple des archives surtout pour les blogs photos, et une fonction random que j’aimais bien qui affiche une photo au hasard sans se palucher toute l’archive qui n’était pas la plus légère pour les navigateurs (oui bon « se palucher » en parlant de contenus adultes, j’ai déjà été plus inspiré ^^’). Là ce sont des conséquences mineures, qui pourront avoir un impact plus ou moins important sur la visibilité sachant que d’autres réseaux sociaux autour restent tout de même de bons vecteurs.

Là où j’ai plus de craintes, c’est que parmi les WordPress que je voient montés, beaucoup semblent encore en train de faire sécher la peinture (avec des menus limites par défaut), j’ose espérer que les personnes qui s’en occupent ne découvrent pas seules le fait d’avoir à gérer l’hébergement et la maintenance de l’outil qui était auparavant à la charge de Tumblr (et de la plateforme en dessous). WordPress est certes une plateforme populaire, mais ça la rend très prisée des attaquants prêts à soit voler des informations en base, soit infecter le site pour voler celles de leurs visiteurs, les ajouter à un réseau d’autres ordinateurs infectés (botnet), tout ce qu’on déteste en tant qu’administrateur, visiteur, amoureux d’un réseau propre.

Ce n’est pas juste une vision de mon esprit. Je ne compte plus le nombre d’incidents de sécurité que j’ai vu passer ou sur lesquels je suis intervenu qui impliquaient des WordPress peu ou pas maintenus, parce que ça demande du temps et donc de l’argent (et c’est souvent à la charge de l’intégrateur qui ne fait pas ça gratuitement – je pourrais en faire un article à part de ces pratiques d’ailleurs). Imperva a publié une étude indiquant que c’est la plateforme la plus attaquée de 2018, principalement à cause des plugins. D’ailleurs l’un des plus populaires a eu une activité intéressante en ce début d’année, le site de la version payante de WPML a été défacé par un ex-employé de la société qui pilote le développement. Il y a peu de chance, mais avec une telle mentalité il aurait très bien pu planquer un moyen d’attaquer les sites qui profitent de cette version du plugin…

Je ne sais pas trop cependant si des alternatives, dont certaines pouvant être installées sur des hébergements mutualisés, et correctement maintenues en matière de sécurité, existent, ce qui éviterait une monoculture du CMS qui s’installe doucement mais sûrement à la façon d’un virus Chrome qui a phagocyté le « marché » des navigateurs web. Zenphoto peut-être, à voir si les outils pour faire un bon remplaçant à Tumblr et WordPress sont là pour les créateurs photos. Pour ceux pissant du texte au kilomètre, on peut faire la course sur WordPress sans problème c’est plus adapté. Malgré tout certains commencent à se poser la question de quitter WordPress, même si la réflexion a pour base le nouvel éditeur qui semble particulièrement diviser (je n’ai pas encore eu l’occasion de le tester pour juger, en raison de plugins qui pourraient ne pas passer la mise à jour). Comme je l’ai déjà dit ces sites sont tous indépendants, il n’y a plus la notion de réseau. Certains ont du coup atterri chez Ello, qui avait presque disparu des actualités, mais à peine la visibilité regagnée qu’ils ont modifié leurs conditions d’utilisation pour réduire la voilure sur les contenus explicites. Eh oui, c’est aussi une société américaine, faut pas rêver.

Bref, un bilan mitigé, je serai content de voir Tumblr disparaître à cause de sa connerie, histoire de leur donner une bonne leçon (mais ça a peu de chance se produire), je suis content de voir les créateurs reprendre le contrôle de leurs contenus, mais dans le même temps j’ai peur pour l’avenir proche quand je vois les choix retenus pour accompagner cette libération. Je sens déjà le métal de l’épée de Damoclès au dessus des enseignes qui ont choisi la voie du CMS le plus populaire de la planète, à devoir me battre contre des absences de maintenance. J’ai peur parce que la majorité des personnes ciblées par cette censure n’est pas en capacité de construire les outils leur redonnant la visibilité qu’ils méritent et qui nourrissent une culture qu’il faut conserver la plus large et diversifiée possible. Tumblr n’est pas le seul « réseau social » à poser régulièrement des problèmes en lien avec ce type de contenus, Instagram cristallise régulièrement l’actualité pour ses censures arbitraires qui ciblent presque exclusivement les femmes et leur nudité. Tant que le Web sera dominé par des sociétés américaines aux outils encore plus fermés que les esprits, il n’y aura pas de bonne avancée pour que diffuse ces cultures qui sont nécessaires à une grande tolérance dans le monde.

Quelques nouvelles astuces à exploiter sur Firefox

vendredi 18 janvier 2019 à 18:30

Parmi quelques volontés pour la nouvelle année, j’ai envie de parler un peu plus souvent de ce qu’il y a de bien dans Firefox, histoire de contre-balancer le bashing permanent contre le dernier bastion de la résistance d’un Web décidé par Google (et encore on pourrait faire un article complet sur le fait que c’est déjà le cas). J’ai découvert ou redécouvert récemment quelques bidouilles bien sympa qui permettront de gagner en confort, alors je partage 🙂

Pour rappel certaines fonctions ne sont disponibles que via des paramètres qui sont cachés par défaut (pas de case à cocher dans les options ou de bouton à cliquer). Pour ça il faut ouvrir un onglet vierge, saisir « about:config » dans la barre d’adresses (et pas la barre de recherche !), et valider le fait qu’on va faire attention :

Désactiver le rafraîchissement automatique des pages

Est-ce que ça vous est déjà arrivé de voir ça sur des sites journalistiques, ou la page est rechargée pendant que vous lisez, perdant parfois le paragraphe où vous vous trouvez ? C’est un vestige d’une pratique peu reluisante visant à gonfler artificiellement le nombre de vues d’un article histoire de maximiser le nombre de publicités affichées, et donc les revenus publicitaires associés. Sachant que c’est pratiquement inutile aujourd’hui, donc à part faire chier les lecteurs qui sont déjà nauséeux lors de la navigation avec cet abus de publicités, ça ne sert à rien. Fort heureusement, Firefox dispose d’une option cachée pour ça :

accessibility.blockautorefresh;true

A basculer sur true d’un double clic 🙂 Vous verrez dès lors un bandeau apparaître quand un site sera bloqué (avec un bouton pour autoriser si besoin) :

Une lecture améliorée avec le zoom et le mode lecture

A l’heure des écrans haute densités (avec bientôt la 4k sur mobile), certains sites qui ne sont pas déjà optimisés pour ces affichages sont illisibles ou presque, le texte étant notamment beaucoup trop petit pour être lu correctement sans s’abîmer les globes oculaires. Ca m’arrive plus souvent maintenant que ce soit sur le laptop en 14 pouces full HD ou le gros pc avec son écran 4k. Si vous êtes face à un tel site, ne fermez pas trop vite l’onglet, il est possible facilement d’utiliser certaines fonctions intégrées du navigateur.

La première, c’est le zoom. Soit avec Ctrl+Molette <haut|bas>, soit via des contrôles qui sont par défaut dans le menu principal mais qu’on peut rajouter à la barre d’outils via le menu « Personnaliser… ». Ce zoom concerne principalement le texte, mais d’autres éléments sont aussi grossis si besoin. Fait agréable, il garde en mémoire le niveau de zoom pour chaque site visité, de sorte que vous n’avez pas besoin de recommencer la manipulation si vous devez revenir sur le même site.

L’autre, c’est le mode lecture. Cette fonction d’abord orientée mobile permet d’épurer la page visionnée pour n’en garder que le texte, quelques images en fonction de la mise en page, et l’affiche sur un fond uniforme avec une taille augmentée mais méchamment. Pour l’activer il y a un tout petit bouton dans la barre d’adresses qui s’affiche quand il détecte la structure de texte :

Ce mode peut être paramétré pour s’afficher en sombre comme ici, en clair par défaut, ou automatiquement en fonction de l’heure de la journée. Je vous laisse essayer sur les sites d’informations pour voir à quel point ça réduit l’agression visuelle.

Déterminer les éléments gourmands en ressource dans le navigateur

L’une des forces des navigateurs modernes, ce sont les extensions qu’on peut leur adjoindre (d’ailleurs vous avez peut-être lu mon dernier inventaire en date qui a déjà évolué, en partie grâce aux commentaires constructifs qui y ont été postés). Seulement voilà, parfois certaines extensions se comportent mal. C’est aussi le cas de certains sites qui sont devenus de vraies applications lourdes dans tous les sens du terme. Si votre système vous dit que Firefox est en train de monopoliser les ressources, un tout nouveau gestionnaire de performance a été introduit pour identifier et éliminer les vrais coupables. Pour y accéder, il faut ouvrir un nouvel onglet, et saisir « about:performance » dans la barre d’adresses. Vous devriez alors avoir un affichage voisin de celui-ci :

Pour l’instant les interactions sont minimales mais ce gestionnaire est amené à s’étoffer dans les prochaines versions.

Spécifique Linux : supprimer la barre de titre

Il n’y a rien de plus frustrant la première fois qu’on arrive sous Linux et qu’on lance son navigateur préféré. En effet sous Windows, il n’y a pas de barre de titre et les onglets sont au plus haut, pour pouvoir maximiser l’espace visible des pages web. Mais pas sous Linux, ou vous avez une barre de titre plus ou moins épaisse (qui comprend aussi les contrôles de fermeture de la fenêtre, qu’on voit aussi sous Windows). Eh bien à priori au moins pour les bureaux GTK3 (Gnome, Cinnamon, MATE), il est possible, via le menu « Personnaliser… », de masquer la barre de titre pour retrouver cet espace vertical comme sous Windows :

décocher pour masquer

Ceci dit l’option existe aussi pour Windows, elle est juste décochée par défaut 🙂

Code source de la sélection

Le souci avec les outils de dev de Firefox, c’est que l’analyseur de contenu formate correctement le code pour faciliter sa lecture. Mais voir le code brut peut renseigner sur le bordel qui se trouve derrière en matière de développement, et parfois mettre plus facilement en lumière un bug applicatif.

Pour ça, il suffit de copier une section de la page, et faire un clic droit, Code source de la sélection. Et là vous allez pouvoir découvrir des choses 🙂

Firefox Screenshots, c’est mieux avec la souris

Avant pour faire une capture d’écran complète d’une page, y compris ce que vous ne voyez pas à l’écran, on avait la console de dev et la commande screenshot --fullpage capture.png, pas très accessible pour ceux qui ne sont pas habitués à la fois à la console de développement et à la ligne de commande. D’autant plus que dans les dernières versions de firefox cette console a disparu (ou alors ça fonctionne plus sous Linux et je suis pas au courant).

Mais Mozilla a proposé un nouvel outil récemment, Firefox Screenshots (et pour une fois on a la doc en français), qui est bien plus pratique et efficace et mériterait d’être un peu plus mis en avant. Mais sur mon pc boulot, c’était désactivé, pour ça il faut retourner dans about:config, et agir sur la clé suivante :

extensions.screenshots.disabled;false

Elle doit être à « false », et pas besoin de redémarrer pour voir l’option dans le menu des actions de pages comme le montre les captures de la documentation 🙂


Voilà, je vais m’arrêter là pour aujourd’hui, si j’en trouve d’autres vous imaginez bien que j’en ferai un nouveau billet, en attendant si vous en avez certaines à partager hésitez pas, les commentaires sont là pour ça 🙂

Le Web d’aujourd’hui serait-il le même sans Google ?

dimanche 13 janvier 2019 à 10:30

On a beau dire que Google est devenu le mal à cause de son fonctionnement basé sur le profilage de la population à des fins mercantiles (et aussi d’espionnage, les USA s’étant doté des lois pour pomper toutes les données collectées), je pense que personne ne se rend vraiment compte à quel point il est devenu incontournable pour le Web actuel. J’aimerai donc mettre en lumière quelques points pas très visibles mais essentiels je pense pour comprendre comment on est arrivé là.

Le Web a existé avant Google. Huit ans sans lui pour être exact. Et c’était… Alors j’ai commencé un an avant son arrivée. Et à l’époque Google a démarré comme moteur de recherche. Et seulement ça. Mais il a rapidement eu du succès parce que comparé aux autres moteurs existants qui cherchaient à gagner de l’argent en vous présentant une tétrachiée de contenus en plus (ce qu’on appelait à l’époque des portails), Google se concentrait sur la recherche, les résultats, sans fioriture, un design qui perdure encore maintenant malgré quelques ajouts. Il faut dire qu’on avait pas de très haut débit à l’époque, donc chaque octet comptait.

J’ai commencé vraiment à utiliser le moteur de recherche Google en 2002 (grosso modo avec mon premier pc à moi et ma connexion 56k AOL pourrie). A ce moment-là pour se rémunérer, vu qu’on ne paie pas pour l’utiliser, Google propose AdWords, un programme de publicité via l’achat de mot-clé, c’est à dire que vous pouviez payer des « mots-clés » pour remonter dans les résultats de recherche des utilisateurs. Déjà à l’époque, face aux parts de « marché » grandissante du moteur, ça a fait râler un peu, mais le référencement n’était pas aussi Google-centré que maintenant. Ce programme existe toujours à l’heure actuelle, cependant les résultats « sponsorisés » de la sorte sont clairement affichés comme tel. Mais ça marche, Google amasse déjà une manne financière importante. Vient naturellement ensuite AdSense, la régie publicitaire de Google. Il ne s’agit plus de demander aux gens de payer pour apparaître dans les résultats du moteur de recherche, il s’agit de rémunérer les sites qui donnent de la visibilité aux autres via de la publicité (ceux récupérant cette visibilité payent évidemment). Google fournit les outils, et prend sa commission au passage. Carton également, à l’époque les montants étaient facilement élevés même avec un trafic un peu faible. Mais la publicité n’était pas encore pernicieuse comme elle peut l’être aujourd’hui.

A ce moment-là, un certain Mozilla signe un partenariat avec Google pour lui reverser une partie des revenus issus des recherches effectuées directement au sein de Firefox, le tout nouveau navigateur web de la jeune fondation. Firefox vient décrasser un domaine pourri par Microsoft avec un Internet Explorer 6 largement majoritaire (on parle de plus de 90%), navigateur que Microsoft a annoncé laisser volontairement figé, laissant les innovateurs sans moyens pour proposer de nouvelles expériences aux utilisateurs. C’est pour ça que Firefox a été plus que bienvenu, et que vous avez certainement entendu parler de cette époque pré-firefox avec dégoût. Ou que vous lisez parfois « Chrome is the new IE », mais j’y reviendrait plus loin. Et avec une part de marché qui est allé jusqu’à 50%, autant dire que la puissance de Firefox a bien bénéficié à Google.

La même année que la sortie de la version 1.0 de Firefox justement, Google annonce et met à disposition Gmail, une solution de courrier électronique à l’interface elle aussi épurée. C’est à partir de ce moment-là je pense que le « compte Google » prend vraiment son envol, permettant de centraliser sur une seule identité toute l’activité des services Google que l’on utilise. Dans la vie de Gmail, un point qui a fait grincer des dents : Google annonce vouloir lire le courrier pour proposer sur l’interface web de Gmail des publicités ciblées. Demandez à n’importe qui s’il accepte que le facteur ouvre son courrier pour lui rajouter des flyers dans les enveloppes… En 2004 sort aussi un certain Google Maps. Pas grand chose à dire à part que son utilisation explosera réellement avec la navigation GPS sur Android, un service de plus incontournable là encore.

Je ne vais pas énumérer la totalité des services que Google a pu créer ou tuer depuis sa création, mais je vais en noter trois en particulier qui par la suite auront selon moi un impact majeur sur toute la planète qu’elle soit professionnelle ou non : le rachat de YouTube en 2005 et son explosion dans les années qui suivent, le rachat et la publication d’Android en 2007 (avec le succès que l’on sait, en 10 ans Android équipe plus de 70% des appareils mobiles du marché) et la publication du navigateur Google Chrome en 2008, avec désormais une part de marché qui frôle les 70% toutes plateformes confondues.

La principale particularité de la majorité des services que Google propose au public est qu’ils sont gratuits. Ils sont majoritairement financés par la publicité qu’une très grande partie des sites du web visibles affichent pour à minima se payer l’hébergement. Seules quelques fonctions parfois confidentielles mais essentielles pour les professionnels sont payantes (si vous n’avez pas entendu parler du récent tour de vis sur les accès à Google Maps, c’est à se marrer). Le fait que Google soit capable d’opérer tous ces services sans que vous déboursiez un seul centime devrait déjà vous effrayer. En l’espace de vingt ans, il a ancré l’idée d’un web gratuit pour ses utilisateurs (en dehors du prix de la connexion Internet), ce qui a déjà valu son lot de tensions, de fermetures de services qui n’attirent pas une masse critique, et l’absence de prise de conscience pour les plus jeunes que tout n’est pas gratuit dans la vie. Et je ne vais pas revenir sur tous les problèmes que posent Google Chrome.

Mais Google n’est pas uniquement un gros profiteur. En fait, le grand public n’a pas forcément connaissance de tout ce que Google a contribué pour qu’on aie un web moderne et plus sécurisé. Qu’on le veuille ou non, l’augmentation du trafic mobile (Google annonce régulièrement que les recherches depuis un mobile totalisent environ 50%, en augmentation légère mais constante dues à la maturité de Google Assistant), lié au fait que Google équipe 70% des terminaux mobiles du monde entier, lui donne une force de frappe d’expérimentation et de décision sans pareil. Ses datacenters ne sont pas clés en main mais reposent sur des technologies majoritairement open-source. Pour tirer le maximum de ses machines, Google a longuement expérimenté le noyau Linux et tenter d’en améliorer plusieurs points notamment au niveau du réseau, améliorations qu’ils ont très souvent reversé au projet mère, et tout le monde peut en profiter.

L’augmentation du trafic lié à la vidéo sur YouTube a poussé Google à mener des recherches sur la compression vidéo. En rachetant On2 Technologies, le géant a publié VP8, et le format Webm, un « substrat » du format mkv optimisé pour le web et le streaming. Si le VP8 est intéressant, il ne sera pas très utilisé en dehors de YouTube. Le VP9 doit prendre le relai du VP8 en réduisant le poids de moitié, un point essentiel notamment pour accompagner l’essor des contenus ultra haute définition. Sorti en 2012, et régulièrement raffiné depuis, le constat est le même que pour le VP8, il n’est pas très utilisé. Mais son aspect « sans brevet » va avoir une importance ici, puisque le VP9 servira de base aux travaux menant à l’AV1, une initiative beaucoup plus large que Google seul dans son coin. Les résultats de la création et du support de ce codec nouvelle génération ne se feront sentir que dans deux ans à priori, alors croisons les doigts pour que cette fois ce soit la bonne.

Aparté : le format d’image WebP, qui est dérivé des travaux sur le VP8 et le VP9, doit permettre des images plus légères à qualité égale par rapport au PNG ou surtout au JPG. Son support vient de se déployer dans Firefox et Edge. Il n’est donc pas idiot de se pencher sur le sujet.

Le web repose sur un protocole, une langue, qui s’appelle HTTP. La langue actuelle la plus répandue date de 1999. Et n’a pas évolué du tout depuis, ou alors tellement peu que le numéro de version n’a pas changé. Au point que vous pouvez toujours utiliser un navigateur web sorti il y a vingt ans pour contacter un site web d’aujourd’hui. Ça sera moche visuellement mais d’un point de vue purement protocolaire ça fonctionne. Le problème c’est que c’est un protocole lent, verbeux, et la multiplication des contenus dans une même page web provoque maintenant un réel gaspillage de ressources réseau et donc CPU. Via son navigateur Chrome, Google a expérimenté un remplaçant nommé SPDY. Les spécifications sont publiques, et côté navigateurs même Firefox finit par le supporter. Mais rien n’est standardisé. Cependant, SPDY va très très fortement inspirer le vrai standard qu’est HTTP/2, qui a été finalisé en 2015, et qui se déploie petit à petit (il est d’ailleurs exploitable sur le blog). Le gain est réel, et sur des réseaux mobiles contraints et instables c’est forcément bienvenu.

Google est également en train de préparer la suite, qui doit encore mener à de meilleurs performances, en la personne de QUIC. Ce même QUIC a servi de base à des travaux pour ce qui devrait aboutir à HTTP/3. Toujours sur le sujet des protocoles, via son hégémonie dans la recherche sur le web, la volonté de mettre en avant les sites avec chiffrement dans ses résultats a poussé beaucoup d’acteurs qui n’avaient que peu d’égard pour la confidentialité des échanges avec leurs utilisateurs se mettre en marche pour basculer sur le chiffrement. La réalité économique de ces conséquences a poussé certains acteurs à proposer de quoi répandre l’usage pour tous gratuitement, grâce à Let’s Encrypt. Au point que celui-ci devient un point de faiblesse s’il vient à tomber, car il est seul sur son créneau à être supporté par autant d’acteurs.

Quoiqu’on pense des travers actuels de l’apprentissage profond (deep learning), ou le terme que le grand public retient à savoir l’intelligence artificielle (j’ai déjà expliqué pourquoi je n’aime pas trop ce terme, et je n’ai pas changé d’avis, pour l’instant), Google s’en est servi partout dans ses outils, et n’a pas oublié de les publier en open-source pour que tout un chacun puisse s’en servir directement sans redévelopper de zéro. Si Google a développé ses propres puces matérielles dédiées à ces algorithmes, avec la perspective que ça soit exploitable par les cartes graphiques aux architectures friandes de calcul parallèle, tout le monde y gagne : Google en visibilité et en crédibilité dans le domaine, ainsi qu’en retour de développeurs qui eux de leur côté peuvent bénéficier d’outils avancés sans les années de recherche nécessaires, pour se concentrer sur leur produit final.

Et pour être impliqué dans le sujet au quotidien avec mes clients, le choix de Google de mieux référencer les sites « mobile-first » et surtout le HTTPS sur le moteur de recherche imposent à tous les sites de se conformer pour garder la visibilité des 90+% de recherches effectués sur le moteur du géant, visibilité sans laquelle il ne pourraient subsister quelque soit le modèle économique sur lequel ils reposent. Et moi-même je dois reconnaître que c’est important et pratique, mobile-first imposant une légèreté bienvenue dans une orgie de JavaScript aussi pourri qu’inutile (quoique malheureusement incontournable), et HTTPS, je vais pas vous refaire le tableau.

Et si je voulais encore mentionner un point important qui m’a fait déployer une configuration sur plus de 4000 serveurs chez LBN : sur Gmail vous étiez prévenus quand un mail vous avait été envoyé par un correspondant sans aucune forme de chiffrement ou de protection (contenu ou transport). En annonçant un traitement en deux étapes : d’abord une simple alerte, le temps de permettre aux expéditeurs de rentrer dans le rang, puis en classant en SPAM ceux qui n’auront pas agi. Autant vous dire qu’avec plus d’un milliard de comptes de réception, tous les sites marchands peu regardant de la confidentialité des échanges se sont vite alignés (je laisse volontairement de côté la contradiction confidentialité et Gmail, je note juste la conséquence pour l’intégralité de l’écosystème). Microsoft n’a pas mis longtemps à suivre sans pour autant communiquer sur le sujet, rendant évidemment les investigations compliquées pour comprendre leur classement, ce qui fait que maintenant une grosse partie du trafic lié au mail se fait de manière sécurisée. Quand au contenu ça c’est encore une autre histoire, ça fait plus de 20 ans qu’on arrive pas à faire accepter des outils qui existent, parce que ce sont des outils complexes pour le commun des mortels.

Et je suis sûr qu’on pourrait continuer comme ça longtemps, s’il était possible d’avoir des vrais retours on pourrait parler de l’initiative Project Loon, un réseau de ballons stratosphériques équipés pour fournir une connectivité 4G où les réseaux classiques sont absents (terrestres ou sans-fil), et où le satellite coûte trop cher. Si vous avez d’autres initiatives positives qui ont été initiées ou soutenues par Google, ça viendra facilement compléter le tableau (quelqu’un pour nous faire l’éloge de kubernetes ?).

On le voit donc, malgré ses très mauvais aspects sur le penchant économique du web, ou sur le profilage et la violation de l’intimité des individus, ses apports techniques sont impossible à oublier. Il n’est pas dit que les évolutions aient été aussi rapides, que le fruit de certaines recherches qu’ils ont mené de manière ouvertes l’aient été avec d’autres acteurs (on pense notamment à Microsoft qui a mis très longtemps à commencer à jouer dans la même catégorie, et encore les travers sont fréquents). J’attends encore de voir les effets de l’AV1 en dehors de nos PCs qui sont les seuls pour l’instant à avoir les épaules nécessaire pour le décoder (sans parler de l’encoder), mais il y a fort à parier que sans ça, la MPEG LA continuerait de saigner la planète entière pour l’utilisation de H264 et H265 pour la vidéo pendant de longues années. HTTP/2 ne serait peut-être pas encore une réalité. Les progrès du deep learning ne seraient pas aussi visibles, avec entre autres un IBM qui préfère se garder sa solution et la vendre clé-en-main.

Google est donc partout : il permet encore à une quantité non négligeable de sites de survivre via la publicité, son service de mail est utilisé par plus d’un milliard de personnes à travers le monde, j’ai déjà évoqué les 70% d’Android qui ont permis à Google en partie de répandre son navigateur pour maintenant plus des deux tiers des webonautes, YouTube compte plus d’un milliard et demi d’utilisateurs mensuels (public et créateurs). Bref, Google domine le Web et il y a peu de chances que ça change pour l’instant. Le problème commence à être visible : quand Microsoft dominait les accès aux Web, il a conditionné les capacités de celui-ci (au-delà de la différence de bande passante globale du réseau à l’époque). Microsoft domine encore le marché PC et les différents errements liés à Windows 10 (espionnage de l’intimité, instabilité des mises à jour, absence de contrôle sur ces mises à jour, tentative d’imposer ses outils) sont une plaie pour une quantité beaucoup trop importante d’utilisateurs pour que ça dure encore longtemps.

Pour l’instant si on avait surtout vu des développeurs feignants ne pas supporter correctement tous les navigateurs (en ne testant certaines fonctionnalités parfois peu finalisées que sur Chrome, par exemple), là Google commence à vous pousser indirectement vers ses propres outils en usant artificiellement de fonctions uniquement disponibles dans ceux-ci. Le dernier exemple en date concerne YouTube, et sa refonte qui ne fonctionne de manière fluide que dans le navigateur maison, en raison de choix techniques discutables pour un service de cette visibilité. En étant majoritaire, Google pense qu’il n’a plus à se soucier de respecter les concurrents. C’est une posture plus que détestable qui ne va pas dans le sens d’un écosystème ouvert ou les décisions sont prises à plusieurs de manière publique.

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Vous vous souvenez tout à l’heure quand je parlais de la maxime « Chrome is the new IE » ? Dans un monde nourri d’innovations, la monoculture est un problème, car un seul acteur dirige toutes les avancées. Même si artificiellement la base de Chrome, Chromium, est ouverte et les contributeurs nombreux, le logiciel final que les gens utilisent au quotidien contient plusieurs additions qui ne sont pas partagées et peuvent imposer leur loi. Quand Internet Explorer était seul, seul Microsoft avait le pouvoir de le faire évoluer, et avait fait le choix de ne pas le faire. Quand Internet Explorer 7 sort avec Vista en 2006, il ne fait que rattraper son retard sur certaines fonctionnalités (les onglets !) et le support de standards tout frais qu’avaient réussi à pousser Firefox et Opera via le W3C pendant ce temps-là, et que les développeurs avaient fini par adopter (on a eu droit à une période magnifique de hacks dégueulasses en JavaScript ou côté serveur pour pouvoir supporter à la fois les standards et Internet Explorer…). Donc laisser Google décider seul de l’avenir du Web, c’est très mauvais.

Par chance pour l’instant Gmail n’est pas aussi pénible que Microsoft sur le mail, jusqu’au jour où ils prendront la même direction et refuseront les quantités de mails qui ne viennent pas d’un gros fournisseur (en substance c’est ce que fait Microsoft maintenant sur Office 365 et c’est une catastrophe). Il est encore possible d’accéder à Gmail via des protocoles standardisés que sont l’IMAP (et même imposent l’IMAPS, soit le même mais chiffré, logique) et SMTP (même combat pour SMTPS), mais certaines fonctions non standards sont mécaniquement impossible à utiliser. Qu’est-ce qui empêche Google de supprimer ce support et imposer soit l’interface Web, soit les applications mobiles ?

Google impose déjà sa loi sur les smartphones Android, en forçant les constructeurs à pré-installer l’intégralité des outils Google pour se voir valider la commercialisation d’un téléphone. Il vient d’être condamné en Europe pour ça d’ailleurs, mais le contournement est pernicieux : si vous voulez valider un Android sans Google Assistant et sans Chrome par exemple, vous devrez… payer 40$ par appareil vendu. Une situation difficilement tenable commercialement parlant pour les fabricants qui continueront donc de permettre à Google de vous sucer le téléphone, mais Google pourra se cacher derrière l’argument que l’alternative existe. Avec ce comportement comment voulez-vous que des alternatives soient possibles et surtout soient vues par des utilisateurs majoritairement peu techniques qui n’installent en fait que très peu d’applications sur leurs téléphones ? Certains n’ont-ils pas pesté que Samsung faisait tout en doublon dans leurs smartphones, sans penser qu’ils n’avaient peut-être pas le choix ?

David Legrand réagissait en 2017 à la question du démantèlement de Google. Il n’était certes pas le seul, mais posait pas mal de bonnes questions et pointaient intelligemment du doigt pas mal de problématiques liées au géant et à son influence sur le monde pas seulement numérique mais physique. Contraint dans mon fauteuil pendant tout le mois de décembre chez ma mère, je n’ai pas pu m’empêcher de frissonner de peur en voyant les multiples publicités pour les enceintes connectées, aussi bien Google Home qu’Alexa d’Amazon, en pensant au pouvoir supplémentaire qu’on donne à ces sociétés privées américaines sur nos propres vies physiques (le sous-titre de cet article résume bien la situation et pourquoi on devrait les éviter comme la peste). Et la solution n’est pas simple, comme ces outils sont gratuits tout le monde les utilise, et on n’imagine pas devoir payer pour l’intégralité de ce que propose le Web aujourd’hui. J’ai du mal à voir un avenir radieux pour tout ça, pas pour moi, j’ai les capacités techniques et financières de m’en sortir, mais pour le restant du monde…

La fibre chez ma mère, chapitre 2 : la box Videofutur

mardi 8 janvier 2019 à 18:30

Dans l’épisode précédent, on a traité de l’installation de la box internet, qui s’est pas trop mal déroulée dans l’ensemble même si pour l’instant je peux pas faire grand chose pour la configurer. Ça fonctionne très bien au niveau réseau, c’est déjà pas mal, donc je me suis penché sur le deuxième morceau de l’abonnement : la box Vidéofutur qui compose l’option TV de l’abonnement. Une fois de plus l’opération n’a pas été de tout repos.

Un matériel sobre, élégant, simple à installer

Je déballe le boîtier, il est particulièrement simple : un pavé noir brillant, avec juste un logo Fibre Videofutur sur la devanture, et le strict nécessaire en connectique à l’arrière, à savoir l’alimentation, l’Ethernet, l’HDMI, la prise antenne TNT, un port USB3 Type A, un SPDIF. Une télécommande accompagne la boite, ainsi que tous les câbles pour le raccordement à la box internet et à la TV. Oui, le câble HDMI est fourni, ce qui est déjà remarquable en soi, le câble Ethernet est d’une longueur plus que confortable ce qui évite d’avoir à garder les deux proches l’un de l’autre.

Check le claquettes/chaussettes

Concernant la face avant, c’est clairement trop simple. En gros, à part le logo qui n’est qu’un sticker, on a juste une diode pour dire allumé ou éteint. Pas d’affichage de l’heure ou de la fonction, du numéro de chaîne, etc. Rien. J’ai fini par mettre la main sur les spécifications techniques sur le site de Videofutur (image reprise de la page du site) :

À l’allumage, on panique la première fois en voyant le logo vidéofutur avec la télé qui indique 640×480. Mais C’est temporaire, on passe vite au 1080i. L’interface de démarrage est simple, tout est fait pour aller à l’essentiel. Les couleurs ne sont pas agressives, bref, c’est ça sent pas le renfermé. La détection du réseau est automatique. Dès la première étape ça nous demande de faire une mise à jour. J’obtempère, ça prend un certain temps à se déclencher, mais la mise à jour s’effectue quand même sans trop d’encombres. On revient ensuite à l’écran de démarrage en trois étapes : configuration réseau, définition du contrôle parental (on peut choisir le niveau à partir du -10 jusqu’à -18, contrairement à CanalSat ou c’est seulement -18), recherche des chaînes. Bizarrement le boîtier parle des chaînes TNT, je ne suis pas surpris qu’il ne trouve rien.

Le retour des surprises

Une fois ces étapes terminées on arrive à l’accueil, mais ça nous dit que le service est désactivé :

Ah. Je reprend mon PC, retourne sur l’interface client, effectivement par défaut le service TV est désactivé alors même qu’il fait partie de l’abonnement, et donc est facturé. Je n’ai pas d’explication concernant cette incohérence, mais c’est une autre étape non triviale qui mériterait d’être revue par NordNet, car ce n’est pas fluide. Mais c’est pas fini :

Voilà, potentiellement il peut y a voir un délai à l’activation, donc je m’apprête de nouveau à attendre. C’est le moment que je choisis du coup pour appeler le service client pour causer avec le technicien (autant mutualiser le temps d’attente). Après avoir abordé le cas de l’interface de contrôle (pour lequel je vais devoir attendre, encore), j’aborde les difficultés que j’ai avec la TV. Il faut dire qu’entre temps, l’interface client indique que le service est activé (sans avoir reçu le SMS), affiche la bonne adresse MAC, mais malgré les tentatives de redémarrage ça indique que le service est désactivé. Au passage, l’adresse IP attribuée à la box vidéofutur est dans la même plage DHCP que les autres appareils, là où d’autres opérateurs isolent le flux sur un VLAN dédié inaccessible aux utilisateurs. Je ne sais pas encore trop quoi penser de cette information, mais elle est là.

Le technicien m’oriente donc vers une réinitialisation, via le menu de contrôle avancé qui est protégé par le code de contrôle parental. Mais la box ne redémarrera jamais, le voyant rouge de la face avant clignotera face aux demandes de la télécommande mais sans repasser au vert. On passe donc à la vitesse supérieure : réinitialiser via le bouton reset qui est l’unique bouton physique présent sur le côté gauche du boîtier. On repart à zéro mais cette fois, à l’annonce d’une mise à jour disponible, le numéro est beaucoup plus élevé que celui indiqué la première fois. On refait donc toutes les étapes, cette fois à la détection des chaînes TNT il en affiche 64, oui la dénomination est trompeuse ce sont bien des chaînes via le réseau. Tout fonctionne !

Presque parfaitement, oui nouvelle surprise le guide des programmes met beaucoup de temps à afficher les informations de toutes les chaînes, ce qui n’a pas de sens étant donné le débit disponible. Au fur et à mesure des affichages ça se remplit, on a l’impression d’une fonction d’arrière plan à la priorité beaucoup trop basse.

Une interface fonctionnelle mais pas toujours agréable à l’œil

Au final l’interface n’est pas des plus agréables, pour une bonne raison : elle est trop remplie, choix a été fait de vouloir afficher beaucoup trop de choses à l’écran. L’interface est organisée à la manière d’une Xbox 360 : les fonctions sont regroupées en haut de l’écran de manière horizontale, chaînes en direct, replay, et les fonctions qui viennent du cœur de métier de Vidéofutur, la consommation de contenus à la demande : films, séries, il faudra du temps pour fouiller le catalogue mais je ne me fais pas d’illusions : en France, la vidéo à la demande est le parent pauvre de la chronologie des médias, sauf pour les contenus à l’achat à l’unité (Mission Impossible : Fallout est déjà dispo par exemple). Au passage les conditions et les tarifs devraient vous faire fuir rapidement, 5 balles à l’unité, lié au service, et en petites ligne ça correspond à une location longue durée de 5 ans. Oui, vous payez mais c’est pas définitif.

Il y a quelques applications annexes disponibles, mais à part YouTube vous pouvez repasser pour autre chose. Sans surprise pas question d’avoir une application Netflix, pour ne pas entrer en concurrence avec leur propre catalogue. RadioLine permet facilement d’accéder à certaines webradios étrangères, mais c’est la seule application audio. N’espérez donc pas utiliser votre installation pour diffuser votre catalogue provenant de votre service musical préféré.

En tout cas si l’agencement n’est pas spécialement aéré, c’est fluide, et ça fait plaisir, il ne faut pas 500 ans pour changer de chaîne, le guide des programmes s’affiche dans la seconde, pour ceux qui connaissent le décodeur CanalSat, la comparaison est impossible tellement la lourdeur et le lenteur de ce dernier somt importantes. Le contrôle du direct soufre par contre d’un tout léger retard à l’allumage. Celui-ci n’a pas besoin de disque dur externe pour fonctionner contrairement au Cube, ce qui me fait penser qu’il est équipé d’une mémoire flash interne pour remplir cette fonction.

Autre point agréable, les chaînes sont en Full HD pour plusieurs d’entre elles, là où CanalSat limite au 720p. Une contrainte qui peut se comprendre à cause de la méthode de diffusion, sur le satellite la bande passante coûte cher, très cher, ils seront contents de pouvoir basculer sur de l’AV1, ou de l’H265 s’ils sont masochistes sur les coûts de licence. Mais ça demandera de revoir le parc de matériel.

Pour finir, il y a une application de lecture multimédia (appelée mediacenter) là aussi simple, mais très fonctionnelle. Elle permet d’accéder au contenu d’un lecteur (clé USB, disque dur externe) branché à l’arrière, ou au partage réseau qu’aura effectué la box internet. J’ai pas fait une recherche exhaustive mais étant donné qu’elle affiche un support 4k, j’ai tout de même testé la lecture de quelques fichiers mkv full HD depuis mon disque dur externe en USB3 (encodés en x264), ça roule nickel. L’interface n’est pas des plus intuitives, mais elle se manipule aisément.

Dernier point un peu technique, avec l’ensemble bluray/home cinema défaillant de ma maman, sans surprise la VOD ne fonctionne pas à cause du HDCP qui ne peut pas être établi (ça fonctionne en branchant la box directement sur la TV). C’est un point que je vais devoir garder en tête pour plus tard, ça ne bloque pas les autres fonctionnalités, et vu le catalogue, de toute façon ma mère va s’en passer, surtout que pour l’instant Canalsat reste à côté le temps que ça soit remplacé.

Une offre qui peut être adaptée pour des besoins simples

Le moins qu’on puisse dire c’est que ça va a l’essentiel. Les chaînes principales sont couvertes, l’offre de vidéo à la demande est clairement un plus, mais on tombe particulièrement vite sur les limitations. L’interface est assez chargée mais pourtant elle ne vous perds pas sous des tonnes de fonctions ou d’informations inutiles. Bref, aux premières captures d’écran je m’attendais à bien pire, quand j’ai pu voir l’interface du Cube Canalsat ou des anciennes Livebox Orange. Si vous avez des éléments à partager sur les box des autres opérateurs, faites-vous plaisir dans les commentaires. J’essaierai quand même de creuser un peu plus loin les capacités de ce boîtier donc il n’est pas exclus que j’en fasse un autre article plus tard.

Par rapport aux besoins de ma maman en terme de TV le bouquet de chaînes est trop limité, je pense aussi que l’offre de vidéo à la demande n’a rien d’exceptionnel et peut donc sans surprise être remplacé par mon deuxième écran de l’abonnement Netflix vu qu’il ne me sert pas, mais il est inclus dans l’abonnement donnant accès à la HD. Bref, comme c’est une option je pense qu’elle ne durera pas trop longtemps puisqu’on peut la désactiver quand on veut. Avec mon immobilisme de décembre j’ai eu tout le temps de chercher les alternatives, et une solution se profile.

En effet, pour accéder aux chaînes de TV que ma mère recherche, il est possible désormais de passer par un service relativement récent qui a su se faire une place malgré les combats menés par les chaînes de TV pour les empêcher de révolutionner l’expérience utilisateur : Molotov. Dans sa version gratuite si les services proposés ne sont pas spécialement intéressants (encore qu’on a accès au Replay, ce qui est déjà un plus par rapport à la TNT classique par exemple), une fois passé sur une option payante, ça commence à devenir très sexy : enregistrement de contenus (plus limités par la disponibilité courte en replay), passage à une diffusion européenne, diffusion sur quatre écrans en simultanés, et là ça concerne le premier palier de 4€ par mois, sachant que ces services supplémentaires sont aussi dispos dans les autres options.

Il y a justement une option extended à 10€ par mois qui rajoute des chaînes. On retrouve les services supplémentaires précédents, avec l’accès cette fois à quarante chaînes thématiques supplémentaires, jeunesse, sport, sciences et nature, on dirait les catégories de questions du trivial poursuit. Et parmi ces chaînes, celles que ma maman regarde le plus souvent sur CanalSat, en dehors de Ciné+. Sachant que ce tarif est le même que celui de l’option Videofutur. Le seul hic, c’est l’accès au service une fois souscrit. Il est évident que ma mère ne va pas remplacer une TV Full HD de 127cm et le Home Cinema 5.1 par son PC de 17″ et ses enceintes intégrées. Il va donc falloir trouver une « box » vidéo de remplacement.

Les options crédibles et suivies sont peu nombreuses. En gros, il y a la Nvidia Shield TV, qui commence à dater mais est toujours maintenue logiciellement, et la Xiaomi Mi Box, beaucoup moins cher mais moins puissante et uniquement orientée vidéo (sans parler de la disponibilité en France), là où la Shield a naturellement des capacités supplémentaires orientées jeu vidéo. En gros on est sur un rapport de 1 à 3 pour les tarifs, en one-shot facilement absorbables cependant. Et là, on a une expérience Android TV complète, ce qui veut dire Molotov, Netflix, Kodi, YouTube, RadioLine, bref, le catalogue d’applications Android. Je ne suis pas encore fixé sur le choix final, je compte quand même creuser encore un peu la box vidéofutur pour en savoir un max avant de repasser sur une solution adaptée. Et puis il reste encore la partie réseau à terminer de cerner. Bref, on a pas fini d’en parler.

G : En guise de teasing, ma mère prépare également son propre ressenti de son passage à la Fibre. Ça sera une première sur le blog : un billet invité de la part d’un non-technicien 🙂