PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

AV1, j’en ai très envie mais y’a un truc qui coince

mardi 27 novembre 2018 à 18:30

Pour ceux qui ne se rendent pas compte, le monde de la vidéo qu’il soit en ligne ou dans votre salon avec les galettes est un terrain de guerre, une guerre de brevets, trusté par une entité qui bouffe à tous les râteliers. N’étant pas un fan de ce que sont devenus les brevets de nos jours, je ne peux donc que saluer l’arrivée d’un concurrent qui libérerait tout le monde, enfin, quand les tentatives précédentes ont échoué. Mais pourquoi je ne saute pas encore de joie ?

Je ne vais pas refaire toute l’histoire des codecs vidéos et des enjeux financiers actuellement autour de ceux qui sont le plus répandus aujourd’hui, le blog mozfr a très bien traduit l’article qui en fait le tour. Ayant vu le Vorbis, « concurrent du MP3 » ne jamais quitter les distributions Linux, le VP8 et VP9 limités à YouTube (via le format Webm), j’avoue, j’avais un peu de doute quant à la crédibilité d’un concurrent à la fois d’H264 qui règne en maître depuis 10 ans sur la vidéo, et son remplaçant H265 appelé à supporter la 4K et suivants sans tuer nos fibres optiques encore absentes de la majorité des foyers.

<script async src="https://platform.twitter.com/widgets.js" charset="utf-8">

Bon, déjà voir une sacré palanquée d’acteurs se regrouper sous une même bannière, l’Alliance for Open Media, a bougé un ou deux curseurs dans mon cerveau. On y trouve à la fois des fabricants de matériels, des acteurs du logiciel, de la communication, des producteurs et des diffuseurs de contenus. L’idée, mettre en commun les ressources financières (développer coute de l’argent), intellectuelles (les ingénieurs c’est pas gratuit), et légales (on a beau dire qu’ils n’y a pas de risques liés aux brevets, on est jamais à l’abri) pour créer un nouvel outil libéré du racket MPEG-LA dont les termes de licences d’utilisation et donc les revenus à leur verser deviennent plus pénibles avec les années, sans parler de l’exclusion de fait via ces termes de licences pour des acteurs non-commerciaux. Et si techniquement c’est supérieur, alors là c’est ceinture+bretelles pour l’assurance d’un pantalon qui ne tombe jamais. Après tout, la vidéo représente maintenant 75% de la bande passante consommée sur l’intégralité du réseau, si on ne veut pas saturer notre bébé il est temps d’agir.

Et tous les acteurs sont d’accord pour que ce nouvel outil soit utilisable par tout le monde sans avoir à filer la moitié de son pognon, un aspect important pour les logiciels libres qui reposent rarement sur des multinationales de la diffusion vidéo pour supporter financièrement ces coûts. En première ligne, les navigateurs Web (bon Chrome n’est pas opensource, je sais, mais voilà…), car malgré la montée en puissance des plateformes mobiles et de leurs applications bourrées d’espions, une grande part de la consommation de contenus vidéo, à la demande ou en direct, passe par eux. Déjà, il avait fallu que Cisco serve de bouclier pour nous proposer dans Firefox une version « open » d’H264 afin de pouvoir lire les contenus dans mon navigateur préféré. Là, l’intégration pourra se faire directement, ce qui est toujours préférable pour les performances.

Justement, les performances. Les chiffres avancés jusqu’ici concernent l’efficacité sur un CPU x86 classique. Hors, malgré les promesses sur nos machines de bureau dont l’âge moyen et la puissance brute à la ramasse ne devraient pas être sous-estimés, le succès ne reposera pas sur un matériel qui n’est plus majoritaire dans la lecture de contenus. En effet, cela fait des années que nos ordinateurs passent non plus par le CPU pour lire les vidéos mais bien les cartes graphiques, qui disposent de circuits dédiés plus efficaces et surtout moins énergivores pour décoder les vidéos toujours plus lourdes. C’est ce qui permet à un Raspberry Pi, qui coûte 30$ et consomme 2W, de lire du Full HD d’une qualité Blu-ray depuis un stockage réseau sans broncher. Hors pour l’instant, malgré la présence d’Nvidia, d’AMD, et d’ARM qui représentent une grosse majorité de fournisseurs de moteurs de décodage vidéo des appareils les plus utilisés du grand public, pour l’instant, je n’ai pas vu d’annonce tonitruante concernant le support d’AV1 dans leurs matériels. Et pour cause, apparemment ça va mettre deux ans, une éternité donc vu la vitesse d’augmentation de consommation du réseau. Ça me rappelle lors de l’arrivée des tous premiers lecteurs Blu-ray, chez Sony comme le matériel dédié au décodage n’était pas prêt, on a intégré des Pentium 4 dans des platines de salon.

Deux ans… deux ans pour que nos box soient capables d’embarquer un matériel qui leur permette d’afficher dans de bonnes conditions les contenus qu’on veut visionner, que ce soit du streaming sur Twitch, de la vidéo à la demande sur Netflix ou sur YouTube, pour prendre des références connues, mais la technologie permettra aussi à d’autres applications peut-être plus spécialisées de voir le jour, avec à la clé bonne qualité, faible conso en bande passante, et également une consommation de stockage réduite, bref, que des avantages. Mais deux ans quoi, sans parler que ceux qui reposent sur les box opérateurs vont attendre tellement longtemps…

 

Firefox : un an de Quantum, et ça bouge encore (pas toujours en bien)

samedi 24 novembre 2018 à 10:30

Le grand chamboulement de Firefox pour le redynamiser et le remettre à niveau sur les performances et la sécurité à eu lieu il y a un an maintenant. Et ça fait un moment que je n’ai pas réellement parlé de Firefox, il faut donc bien qu’on s’y remette un peu, parce qu’ils ne sont pas arrêtés en si bon chemin.

Le moteur avait donc été revu de fond en comble, avec de plus en plus de morceaux écrits en Rust, langage justement créé par Mozilla et centré sur la sécurité à très bas niveau. Je n’ai pas vraiment suivi de près les travaux à ce sujet, tout au plus je sais qu’une feuille de route pour l’abandon définitif de XUL est dans les cartons pour gérer les éléments de l’interface sur les différentes plate-formes supportées.

Finalement la fin du monde des extensions ne s’est pas produite, même si inévitablement quelques modules ne pourront probablement jamais être portés (j’ai perdu notamment Calomel qui analysait la connexion HTTPS, on comprend donc la difficulté concernant la sécurité…). Le framework Webextensions a été raffiné, enrichi, corrigé depuis sa mise en service pour permettre plus d’usages. J’attends encore le masquage des onglets pour tree style tab et consorts, parce que ça fait quand même doublon… Bref, Mozilla essaie quand même de rester à l’écoute des développeurs dans la mesure du possible (si c’est pour péter le modèle de sécurité de Webextensions autant tout foutre à la benne) et c’est tant mieux pour l’écosystème.

Côté performances j’ai rien à dire ça envoie du lourd. Rien d’étonnant, quand on regarde la liste des processus c’est un vrai sapin de Noël, ça parallélise à mort. La conséquence directe est une conso mémoire qui peut vite s’emballer en fonction du nombre d’onglets et des extensions installées. Il n’est pas rare que je dépasse globalement les 3 Go, avec Cinnamon (« l’interface » que j’utilise sur Manjaro) qui à froid mange son petit gigot et seulement Firefox de lancé qui mange une grande partie des deux gig suivants. Bon faut dire aussi que j’ai facilement plus d’une quinzaine d’onglets ouverts en permanence, souvent au moins un sur YouTube pour la musique de fond. Et pire encore, sous linux il faut toujours forcer l’accélération graphique à la main en raison de la frilosité de Mozilla et du manque de retours concernant la stabilité et les performances (les développeurs de jeu rencontrent souvent la même problématique, avec l’aspect supplémentaire des ressources financières rattachées au support).

Malgré tout le boulot continue sur les performances, avec l’annonce récente de la migration de la chaîne de compilation vers LLVM/Clang qui produit déjà des résultats sans avoir à retoucher le code, reste à voir si sous Linux (encore lui), les différentes distributions vont suivre plutôt que rester sur leur propre chaîne pour la génération des paquets. Je sens que ça va causer sévère chez les barbus. Reste ensuite comme déjà évoqué le fait de lourder XUL pour basculer sur d’autres outils plus proches des environnements natifs (Windows, Mac, Linux, Android), et le rafraîchissement tiendra plus du changement de visage à la Volte-Face (film sympathique que je vous conseille) que du simple lifting (ou le portage vers GTK3, mais qui repose toujours sur XUL en pratique en dessous). Pour ceux qui seraient déjà dans le futur, chez Fedora par exemple, bientôt le support Wayland sera activé (mais j’ai toujours pas eu la preuve que c’est vraiment mieux sur tous les points).

Si y’avait pas les options pour la forcer, l’accélération serait « disabled by platform »…

Il y a tout de même quelques petits points qui me plaisent moins. L’intégration de Pocket m’avait déjà fortement gonflé parce que sa désactivation n’est pas triviale pour ceux qui ne bricolent pas sous le capot. Rien à voir avec la fonctionnalité elle-même, que je n’utilise pas, mais sachant que plusieurs extensions du type étaient dispos sur le « marché », c’est toujours un peu sale. Là, Pocket va servir de sniffeur pour commencer à afficher des contenus sponsorisés basés sur votre historique de navigation, on sort un peu de la fonctionnalité de base, même si l’objectif de s’affranchir de la perfusion Google en termes de source de revenus reste louable. Le choix des contenus et leur respect des utilisateurs sera toujours compliqué quand on parle de publicité en ligne, qui restera majoritaire sur le Web pendant encore pas mal d’années.

C’est d’autant plus regrettable que Mozilla communique fortement sur le respect de la vie privée en ligne, avec une intégration du blocage du pistage en ligne, lui qui continue de truffer ses propres services de Google Analytics dont on connaît l’appétit pour votre profilage. Une sorte de double-discours qui passe moyen auprès des utilisateurs de la première heure qui sont sensibles au discours sur cette fameuse vie privée, ou comme l’aime maintenant à dire Clochix, l’intimité numérique. Un discours voisin de celui sur le contrôle des données, dont la récente avancée sur Firefox Monitor doit permettre de mieux faire prendre conscience aux masses qu’il ne faut pas faire confiance aveuglément aux services web et faire plus attention à ses comptes en ligne.

On pourrait également critiquer le recours à CloudFlare pour ses serveurs DNS over HTTPS afin de chiffrer les requêtes DNS. Pour ceux qui ne connaissent pas, CloudFlare est un acteur majeur d’Internet qui propose différents services, les plus connus étant du CDN (distribution géographique de contenus) et une protection Anti Déni de service dont beaucoup se servent pour masquer l’infrastructure où ils sont installés, pratique pour les sites à la légalité tendancieuse. Mais CloudFlare est une entreprise avant tout Etasunienne, il est donc impossible de lui faire confiance vu qu’elle est contrainte par le Patriot Act et le CLOUD Act. Malgré tout, CloudFlare, à l’instar de Google, participe à faire avancer Internet et avec Mozilla ils proposent déjà de tester l’extension Encrypted SNI pour chiffrer l’intégralité des informations de votre surf (car même avec HTTPS, certaines informations dont le nom du domaine recherché passent en clair pour l’instant, un point qui n’a pas été tranché lors de la finalisation de TLS 1.3).

Dernièrement et peut être ce qui m’a décidé à écrire ce récapitulatif de l’année passée, c’est le changement sur le contrôle de la lecture automatique de contenus. Avant c’était simple, on voulait pas que les vidéos se lancent, media.autoplay.enabled à « false » et c’était réglé (pas de contrôle graphique une fois de plus pour les non mécanos). Mais ils veulent introduire un modèle de contrôle site par site, ce qui nécessite de nouveaux moyens et par défaut je vous le donne en mille, la lecture est activée pour tout le monde. Et les contrôles pour inverser la tendance ne sont pas encore finalisés ce qui rend la tâche bien difficile. Et je déteste au plus haut point ne plus avoir le contrôle sur mon expérience en ligne. Mais ça devrait changer rapidement donc on va dire que ça ira. Heureusement que je suis aguerri au butineur depuis ses débuts, hein.

Dans tous les cas, et ça me désole d’avoir à le dire étant donné mon amour pour lui jusqu’ici, je n’ai pas trop le choix. Je n’ai pas envie de cultiver la monoculture Blink/Webkit si on exclue Edge, après avoir subi Internet Explorer pendant de trop nombreuses années, donc exit tous les dérivés de Chromium qu’ils soient encore opensource ou pas (et encore pour moi c’est la condition numéro 1). Et sorti de là, ben il ne reste que Firefox. Oui je sais, il existe certains dérivés plus respectueux paraît-il, ou si j’étais un intégriste je resterais sur un fork pré-quantum parce qu’il faut à tout prix éviter de ressembler à Chrome. Sauf que si je ne suis pas près de pousser à l’utilisation d’une distribution Linux au plus grand nombre tant qu’ils n’ont pas appris à utiliser leur ordinateur de la bonne façon (Laure de la Raudière parlait récemment de culture numérique sur France Culture, c’est tout à fait ça), tenter de juguler l’infection Chrome est plus à portée, mais il faut une marque reconnaissable avec une communauté derrière qui tienne la route, et il n’y a guère que Mozilla et son panda roux pour prétendre au poste auprès des non-techniciens.

Malgré tout ça, Firefox ça rox toujours, et je ne peux que vous encourager à (continuer de) l’utiliser ou tenter d’y (re)passer parce que non seulement il bouge encore, mais son avenir au moins technique s’annonce cool. Même s’il se bat contre des géants aux pratiques plus que douteuses

Quelques liens en vrac et en français, 29° édition

mercredi 21 novembre 2018 à 18:30

Je suis toujours vivant numériquement parlant. Ceci dit, mon temps libre conscient est assez restreint, et donc le temps d’écriture assez faible. Je suis en vacances, et j’ai décidé de prendre un peu de temps pour prendre soin de mon petit blog. Évidemment je n’ai pas arrêté de lire, donc on va commencer par une nouvelle « revue de presse » que j’ai du écrémer pour éviter de dépasser le compte habituel de dix articles. Bon y’en a onze en fait. J’ai pas envie de vous gaver d’un seul coup non plus 🙂

Hygiène et écologisme numérique

Vous avez déjà entendu parler des problèmes liés à la vie privée en ligne, mais vous n’êtes pas encore convaincu. Clochix a réfléchi un peu plus pour tenter de trouver d’autres termes qui peuvent trouver plus d’écho dans les esprits des non-convaincus.

Google achète des données chez Mastercard pour lier les annonces en ligne aux achats en magasin

Vous pensez encore que Google ne vous veut du bien sans rien vous vendre ? Non content de déjà pratiquement tout savoir de ce que les gens font en ligne quand ils ne se protègent pas d’eux-mêmes, le géant de Mountain View tente de savoir ce que vous faites en dehors du Web (il en sait déjà une partie si vous laissez la géolocalisation activée sur votre smartphone Android, et apparemment même si vous la désactivez).

Quelques sites/outils pour améliorer votre site

Pour avoir souvent analysé mon propre blog pour en trouver les faiblesses et tenter de le corriger, les outils pour vous montrer ce qui ne va pas avec le votre sont légion. Le Lord nous en fait une petite sélection avec leurs spécificités, certains se concentrant sur un aspect particulier, que ce soit la conformité, la performance, la sécurité…

Comment déprotéger un livre Kindle pour le prêter, le lire sur l’ordi ou l’exporter sous un autre format (PDF, EPUB) ?

Je ne vais pas discuter de l’éthique globale concernant les activités d’Amazon, mais un des points qui m’a toujours fait tiquer concerne le fait qu’ils veulent contrôler vos usages des fichiers numériques qu’ils vous vendent, et ça se fait avec un verrou numérique sur chaque livre. Comme tous les verrous numériques, il est possible de s’en passer pour retrouver les droits sur ce qu’on a acheté. Et c’est avec un logiciel libre 🙂

Café de Faune

Ce site est un véritable cabinet de curiosités numériques, certaines flippantes, d’autres absurdes, très majoritairement inutiles, donc très souvent indispensables. L’existence même de ce site est une curiosité en soi à découvrir absolument.

Copyright numérique : stériliser pour mieux tuer

Bon cet article est à la bourre, puisque nos chers eurodéputés ont clairement décidé de ne pas se poser en gardiens du futur d’un monde numérique équilibré qui garantirait nos droits en tant que citoyens et pas seulement ceux d’industriels déjà gavés jusqu’à la moelle. Mais la réflexion sur ce qui nous pend au nez reste valable (et toutes mes excuses pour la limitation du nombre de visionnages).

Monter son propre routeur fibre avec OPNSense

Quand vous commencez à vouloir maitriser ce qui se passe chez vous en matière de réseau, vous découvrez très vite que les box que vous imposent les opérateurs font en sorte que vous ne maitrisiez pas ce fameux réseau qui est pourtant chez vous. Fort heureusement, ils ne peuvent pas tout imposer, d’autant plus chez Orange, et il est possible de monter son propre routeur fibre bien plus capable et sous contrôle. C’est Edtech, vieux routard du forum Next INpact, qui nous donne la marche à suivre complète.

Être une femme entourée d’hommes dans l’informatique

C’est encore un fait malheureux, le comportement des hommes envers les femmes dans le « milieu » de l’informatique reste encore trop souvent à tout le moins maladroit, voire franchement regrettable. Fort heureusement ce n’est pas une généralité, et Mae a justement partagé comment elle a pu faire évoluer son entourage direct depuis son arrivée. Bien que ça n’aie pas été de tout repos ni naturel…

Tempête de boulettes géantes

Il n’y a que ceux qui ne font rien qui ne font pas d’erreurs, il paraît. Il paraît qu’on apprend aussi de ses erreurs, et j’aime autant vous dire que vu celles que nous partage Agnès de The eBook Alternative qu’elle a pu collecter notamment via Twitter, j’aime autant vous dire que les mecs responsables doivent être devenus des puits de science.

Firefox : comment désactiver le format internationalisé

Le problème quand on veut proposer un encodage unique pour l’intégralité des langues de la planète, c’est qu’il y a une certaine redondance, et que cette redondance peut conduire à certains abus. Tous les navigateurs sont touchés mais Firefox, une fois de plus, peut nous aider à ne pas tomber dans le panneau si on lui demande gentiment.

HTTP aujourd’hui : HTTP/2 expliqué

Il est déjà exploitable sur ce blog si vous avez tous les éléments nécessaires, la première évolution majeure depuis plus de 15 ans du protocole au cœur du web a été finalisée depuis maintenant trois petites années, et commence à être présent dans plus en plus de logiciels et de services. Histoire de bien comprendre ce qui change et comment tirer partie de ces nouvelles spécificités, un cours complet est disponible sur developpez.com à lire sans modération.


Voilà, j’ai encore le même stock, et j’ai toujours autant de lectures chaque jour, il n’est donc pas exclus que je finisse par écrémer. Je vais pas non plus vous balancer deux épisodes de lecture à la suite, généralement on tient un article par mois, ce qui je pense est suffisant d’autant que pour une partie du lectorat, beaucoup d’articles ne sont pas inconnus 🙂

Mon nouveau laptop : Lenovo T460

mardi 9 octobre 2018 à 18:30

Vous l’avez vu, mon laptop commence vraiment à mal vieillir, et je cherchais un remplaçant, à la fois plus compact, peut-être pas autant que le Chromebook, mais endurant et si possible au moins aussi puissant. La difficulté, c’est de réunir ces qualités dans un appareil qui ne coûte pas un SMIC, ce qui devient de plus en plus compliqué sur un marché où l’absence de concurrence tire les tarifs vers le haut. Et même si je n’ai pas eu exactement ce que je voulais, à l’image de mon smartphone, j’ai pu trouver une bonne affaire, très bonne même.

Et c’est à Pierre-Marie que je la dois cette bonne affaire, et tant pis si ce n’est pas un CPU AMD (je m’explique en conclusion). J’ai donc fait l’acquisition d’un laptop Lenovo T460 d’occasion en parfait état, encore sous garantie chez Lenovo, et j’ai pensé qu’en parler un peu serait intéressant à plus d’un titre.

Ses caractéristiques

Nous avons donc face à nous une machine de 14 pouces, un peu plus compacte donc que les 15,6 pouces du LDLC. Le poids final est bien moins faible que ce que je pensais, dans la mesure où d’autres machines aux dimensions comparables savent faire mieux. Le nouveau venu fait en effet 1,7kgs, là où le LDLC avoisinait les 2,2kgs, un comble quand on sait que le châssis est intégralement en plastique. Et c’est dans le châssis justement que réside le secret, les Lenovo série T sont particulièrement solides, et malgré la finesse plus importante les matériaux font leur effet. Malgré tout le gain est de 500 grammes ce qui sera appréciable dans le sac à dos.

La déformation de l’objectif ne rend pas bien le changement de dimensions 🙁

Changement d’épaisseur agréable 🙂

L’écran monte en résolution, de 1366×768 à 1920×1080, on a donc à la fois une augmentation de résolution et de densité de pixels (plus de pixels dans un espace plus petit) particulièrement intéressante pour le confort et la qualité visuelle. On passe du mat à l’antireflet, la différence est visible mais le traitement de Lenovo n’est pas juste un effet d’annonce, il est efficace. La précision des couleurs entre également en compte dans la balance, et il faut avouer que les couleurs du Lenovo sont plus agréables à l’œil que sur le LDLC.

Moins flou sur le Lenovo, l’antireflet ne vaut pas le mat

Vous les voyez bien les stickers ?

Côté puissance, on passe du Core i3-5005U (génération Broadwell) à un Core i5-6200U (génération Skylake). On reste donc sur de la basse consommation, mais l’augmentation de fréquence, de génération et les améliorations du côté de la partie graphique intégrée seront certainement appréciables. Je vous laisse scruter le comparatif sur le site d’Intel pour bien comprendre les évolutions. Je reste sur 8Go de RAM, ce qui est suffisant pour mes usages sur le laptop (je ne joue pratiquement pas), et au passage je double la capacité du SSD (un Samsung 850 EVO, une très bonne référence donc), j’ai donc 500Go très confortables et très rapides (à la limite de ce que peut proposer le SATA3 évidemment).

Concernant la batterie, c’est plus que surprenant, mais le T460 en possède deux : une interne, qui nécessite de démonter le châssis pour intervenir dessus, et une autre externe, qui dans le cas présent est plus petite. C’est cette première batterie qui est d’abord exploitée quand on débranche la prise du chargeur, et il est possible de la changer sans interruption grâce à la deuxième batterie interne. Il existe différentes capacités, et aussi différentes tailles, la plus grosse batterie surélevant légèrement le châssis quand on le pose sur une table. Quoiqu’il en soit, et pour ce que j’ai pu en juger, j’ai à ma disposition entre six et huit heures d’autonomie, soit autant qu’à mon achat du laptop LDLC. En fait, on s’accommode facilement d’autant de liberté sans fil, et j’avoue que la très forte réduction que j’ai subi me frustrait plus que le reste.

Parmi les autres évolutions matérielles agréables, le clavier même s’il repasse en azerty « fr », les touches sont plus résistantes, avec une course plus importante, et le clavier est rétroéclairé ! Ça quand on commence à travaillé dans la pénombre, c’est un ajout plus que bienvenu. Les touches de fonction sont à peu de choses près toutes fonctionnelles (je n’ai pas de projecteur pour tester le Fn+F7, Fn+F9 et Fn+F10 ne sont pas attribués, mais reconnus donc je pourrais attribuer une action), du moins les plus importantes comme le contrôle du volume ou de la luminosité de l’écran. Le seul bémol selon moi, c’est le déport des Origine et Fin qui étaient en Fn+Flèche gauche/droite qui à l’usage sont très ergonomiques, là les touches sont tout en haut à droite ce qui oblige à déplacer la main, dommage.

Logiciel ? Manjaro bien sûr !

Évidemment, pourquoi on changerait une équipe qui gagne ? Par contre, je n’ai pas cloné mon installation mais installé une Manjaro toute fraîche. Pourquoi ? Eh bien, je soupçonnais que les problèmes de support que je pouvais rencontrer avec le laptop LDLC étaient dus au fait que je n’exploitais pas le mode EFI mais le legacy BIOS. Ici, je n’ai pas voulu tenter le diable, surtout avec du matériel plus récent et validé pour fonctionner sous Windows 10, en mode EFI donc. Et rien de tel qu’une installation de zéro, pour ça, j’ai choisi l’édition communautaire avec le bureau Cinnamon. Il m’a fait régulièrement de l’œil ces derniers mois, et si j’apprécie sa légèreté XFCE est vraiment austère, et GTK2 ça commence vraiment à être vieux. Étant un inconditionnel de Firefox et Thunderbird, je souhaitais rester dans l’univers GTK pour éviter les difficultés que j’ai pu rencontrer à mes débuts sous KDE.

Je ne me suis pas trompé, je n’ai pas eu grand chose à faire pour être à l’aise, les effets visuels sont plus sympas à montrer aux gens, et j’ai pu copier les différents contenus de mon dossier utilisateur pour être opérationnel en à peine une soirée. Je suis encore sporadiquement à installer un ou deux packages, mais la plupart a été réinstallé en à peine une demi-heure. Et je n’en ai supprimé que quatre, autant dire que c’est une image qui ne gaspille pas beaucoup de ressources. Nemo est un bonheur, non seulement les raccourcis pour créer plusieurs onglets et surtout naviguer entre eux sont faciles d’accès, mais en plus il possède un « extra pane » qui permet de splitter la fenêtre en deux pour faciliter les copies ou les comparaisons de dossier ! Par contre, dans l’ensemble Cinnamon et ses logiciels sont très mal traduits sur cette installation, je n’ai pas encore creusé pour savoir si c’était « normal » ou s’il manque des choses pour les francophones. On verra bien, dans mon cas ce n’est pas si gênant.

Allez essayer ça sous Windows 😀

Le matériel quand à lui est parfaitement supporté out-of-the-box, du moins ce que j’ai pu essayer, à savoir tout ce que j’utilise au quotidien, et même moins comme la webcam intégrée. Je me suis même permis une bascule au noyau 4.18, mais le 4.14 fourni par défaut  fait déjà très bien le travail.

Quelques petites spécificités qui demandaient une intervention

On va rentrer dans la catégorie des bizarreries qui donneront du grain à moudre aux blogueurs qui pensent définitivement que le bureau linux est mort ou restera cantonné aux bidouilleurs. Qu’on ne se méprenne pas, je n’ai eu aucun problème réel à l’installation ou dans les premières heures. L’expérience a été plus que plaisante, mais au bout de quelques jours, j’ai pu remarquer un truc ou deux qu’il a fallu creuser.

A commencer par la lecture vidéo. Pas de problème en apparence, mais le diable se cache dans les détails, et celui-ci était un ventilateur qui s’affolait plus que de raison. En jetant un œil à la conso CPU, en effet, VLC monopolisait pratiquement toutes les ressources. L’explication est toute simple, VLC n’arrive pas à exploiter l’accélération matérielle de la carte graphique. En fouillant un peu pourtant, les éléments nécessaires sont installés (libva, entre autres choses), mais ça ne semble pas suffire. Une petite recherche plus tard, il s’avère que sur les puces Intel récentes il faut un paquet dédié, intel-media-driver. Il n’est pas dans les dépôts de base d’Archlinux mais le « paquet » AUR a fait le boulot, malgré un temps de compilation particulièrement long. Et passer de 90% à 15% de conso CPU, ça vaut l’attente liée à cette compilation.

Un autre élément qui m’a occupé pendant quelques heures, la capture vidéo via SimpleScreenRecorder dans un premier temps, puis OBS qui avait le même symptôme. Celui-ci était que dans la vidéo enregistrée, on voyait le papier peint du bureau clignoter par dessus la fenêtre courante. Apparemment, le problème est commun aux bureaux qui exploitent le gestionnaire de fenêtres Mutter, utilisé entre autres sur Gnome et donc Cinnamon. Celui-ci apparemment fait joujou avec la synchronisation verticale, ce qui gêne SSR et OBS dans leur travail. Cependant, et dans le cas particulier des cartes Intel, et surtout les cartes récentes de génération post-Broadwell, ce qui est le cas ici, le paquet xf86-video-intel contenant des routines pour le serveur X.org est inutile et pose plus de problèmes qu’il n’est censé en résoudre. Et ça a été le cas, un mal pour un bien finalement parce que j’ai pu mettre les mains dans OBS et il semble avoir quelques atouts dans son sac par rapport à SSR qui fait très bien le boulot, mais j’ai pu voir une différence significative notamment dans la qualité de la sortie enregistrée.

Il reste un dernier point que j’ai plus de mal à régler, une instabilité légère mais suffisamment visible au niveau des débits de la carte Wifi. Je suis encore en train de chercher la cause profonde et sans surprise je partagerai quand j’aurai trouvé.

Ça donne quoi cette upgrade ?

Le gain en puissance CPU rend pas mal de choses plus fluides, même si je ne me sentais pas encore très contraint sur le i3. Le SSD est plus gros, ce qui fait que j’ai moins de scrupules à créer/télécharger quelque chose de volumineux, comme des machines virtuelles ou les futures vidéos pour le blog. Et j’ai déjà évoqué la partie autonomie qui est vraiment appréciable.

Là où je suis finalement le plus agréablement surpris, c’est sur la partie gaming : j’ai pu jouer entièrement fluide, comprendre au dessus de 40 images par seconde, à Portal 2 en 720p détails moyen, alors que même les détails bas et une résolution plus faible ne permettaient pas une expérience proprement fluide sur le Core i3 et son HD 5500. J’ai encore à tester des choses plus lourdes comme Rocket League (basé sur l’Unreal Engine, ce qui sera bien plus intéressant comme expérience), mais c’est déjà sacrément appréciable comme mise à jour. Ça me rappelle un peu quand je suis passé de ma Geforce 2 MX 32Mo SDR « bas de gamme » (comprendre des fréquences inférieures aux specs officielles de l’époque) à la Geforce 2 MX 64Mo DDR limite overclockée qui m’a fait découvrir que Kyle Katarn avait des cheveux et des doigts aux mains dans Jedi Knight 2 : Jedi Outcast. Dommage que je n’ai pas de captures d’écrans à vous montrer de cette belle époque ou la moindre upgrade matérielle changeait une vie. Et je ne vous parle pas du passage à la Geforce 4 Ti 4200 (je vous laisse chercher ces références de vieux hein 😀 )…

Je n’ai pas évoqué le son mais les enceintes intégrées font le taf, comme souvent, les basses manquent un peu, mais j’ai des casques pour ça, on peut jouer avec l’égaliseur de VLC mais j’ai la flemme, et ça ne fonctionne que dans VLC justement. Avec YouTube c’est différent, pas d’égaliseur y compris dans PulseAudio. J’ai validé la puissance avec cette petite vidéo :

Il y a par contre deux éléments que je n’exploite pas actuellement : un lecteur de cartes à puce et un lecteur d’empreintes digitales. Eh oui, c’est une machine professionnelle à la base, si j’ai pas trop la flemme j’essaierai d’en faire quelque chose ne serait-ce que pour comparer avec leur support sous Windows.

Une sacrée occasion, ça fera plaisir à certains

En effet, cette très bonne affaire ne concerne pas une machine neuve, mais une machine d’occasion. Une machine certes récente, puisqu’elle a deux ans, mais pas une machine neuve non plus, encore moins facile à trouver en magasin. Ce n’est pas non plus une machine avec un CPU AMD, parce que je n’ai pour l’instant rien trouvé chez les différents constructeurs qui s’approche de ce que j’ai entre les mains. Et ça m’emmerde un peu de ne pas pouvoir nourrir une concurrence sur un marché qui crève à petit feu justement de ce manque de concurrence. Les différentes machines sont déjà compliquées à trouver, mais elles sont aussi trop souvent trop chères pour montrer au public que la concurrence existe, et surtout qu’elle a de la gueule sans se ruiner. Mais les machines sont une fois de plus trop chères, et les premiers résultats que j’ai pu voir sont plus que décevants d’un point de vue de la dissipation thermique. Ça sera donc pour la prochaine fois j’espère…

Quelques bonnes sources pour comprendre les bases du DNS

lundi 1 octobre 2018 à 18:30

Je l’avais indiqué dans mon billet anniversaire, je lâche l’affaire, je n’arrive pas à écrire quelque chose de propre et d’agréable à lire pour vous expliquer les bases de ce qu’on appelle le DNS, grâce à qui Internet est en grande partie ce qu’il est devenu aujourd’hui. Je vais donc compiler une série de ressources qui selon moi sont suffisamment abordables pour que vous puissiez découvrir ce pilier de notre réseau chéri, en partant de zéro ou presque.

Le dyptique de Monsieur Bidouille

Youtuber encore modeste comparé à d’autres, Monsieur Bidouille nous a gratifié de non pas d’une mais de deux vidéos sur le Système de Noms de Domaines, ou DNS. Et je ne peux que vous inviter à regarder également les autres vidéos qu’il peut faire, aussi bien les hors séries sur Internet que son sujet premier.

DNS – Vulgarisation

Genma a également eu l’occasion lui aussi de diffuser la bonne parole du DNS lors de différentes apparitions publiques. Les diapositives de cette présentations sont toujours disponibles sur Github, on y aborde les bases, en ajoutant un soupçon de vie privée et de sécurité dans le tas.

Les conseils du maître, évidemment

Il n’est pas compliqué, lorsqu’on cherche un expert en matière de DNS, de citer Stéphane Bortzmeyer. Ingénieur à l’AFNIC, le bureau qui supervise la création des domaines en .fr, il participe aussi activement aux différents développements entourant les normes notamment DNS au sein de l’IETF. Parmi tout ce qu’il écrit sur son blog, j’ai sélectionné quelques articles qui mettent l’accent de manière un poil plus précise sur certains aspects du DNS :

Et si votre curiosité n’est pas encore satisfaite, vous pouvez encore fouiller le reste du blog, il y en a pour tous les goûts et tous les niveaux.

Aller un peu plus loin ?

Vous avez tout compris à ce que vous avez lu et vous commencez à vouloir reprendre un peu le contrôle sur votre expérience Internet ? Sur votre connexion résidentielle, quelques solutions simples d’accès commencent à émerger comme le Pi Hole. Cette solution est basée sur un Rapsberry Pi, une mini-carte informatique qui coûte une trentaine d’euros et qui n’est pas si compliquée à installer quand on prend le temps de s’y intéresser. Pierre Lecourt en fait un très bon résumé sur son site Minimachines, il ne vous manquera pratiquement aucune information pour vous monter votre propre installation.