PROJET AUTOBLOG


Le blog de Seboss666

Site original : Le blog de Seboss666

⇐ retour index

Quelques liens en vrac et en français, 31° édition

mardi 12 février 2019 à 18:30

Je vous avais laissé le dernier épisode pour conclure 2018 avec une grosse, grosse livraison de lecture, après un mois et demis de repos on reprend les chemins de la culture et de la découverte, toujours en français c’est la règle, en essayant de garder une diversité les sujets 🙂

Une avocate a réécrit les conditions d’utilisation d’Instagram comme si elles étaient expliquées à un enfant de 8 ans

Constat amer au Royaume-uni, les parents laissent près de la moitié des enfants de moins de 10 ans s’inscrire sur Instagram, et ça dépasse la moitié pour la tranche 12/15 ans, très inquiétant. D’autant qu’aucun d’entre eux n’a lu et ne peut comprendre les conditions d’utilisations acceptées aveuglément. A la demande du délégué au droit des enfants, une avocate a réécrit ces fameuses conditions d’utilisations pour qu’un enfant de huit ans les comprenne. Sachant qu’à de rares exceptions près, c’est le même schéma pour n’importe quel service, qu’il soit américain ou pas, dès qu’il est gratuit.

Une nouvelle chaine YouTube sur l’univers Linux

Certes orientée sysadmin/devops/cloud (on arrête là le bullshit bingo), cette nouvelle chaîne française lancée par Thomas mérite je pense un petit soutien, en tout cas je la surveille avec attention (abonnement/flux rss toussa). Et je vous invite à en faire de même.

Faut-il passer à la 4K tout de suite ?

J’ai moi-même sauté le pas il y a plusieurs mois à l’occasion d’une bonne affaire, mais j’ai déjà eu l’occasion d’en parler je pense, entre autre sur mon passage contrôlé à Windows 10. Mais la question doit encore se poser, pour plein de raisons, en fonction de vos besoins mais pas que, et cette série d’articles fait bien le tour de cette réflexion qui n’est pas si évidente que ça.

Ce que récolte Google, revue de détail

J’ai déjà évoqué le pouvoir qu’a acquis Google sur notre monde numérique, mais je suis resté volontairement évasif sur les techniques qui lui ont permis de rentabiliser au maximum son ciblage publicitaire car ce n’était pas le cœur de sujet de l’article. Framasoft s’en est de toute façon très bien chargé pour nous, et fait un inventaire en plusieurs articles de ce que l’on a pu apprendre soit officiellement soit officieusement sur la gloutonnerie du géant en matière de tout ce qui peut concerner nos vies, sans même demander la permission pour des éléments parfois très intimes.

Photorec : trier automatiquement la restauration par type d’extensions

Photorec est un outil de récupération de fichiers (pas seulement de photos comme son nom pourrait le laisser penser), que j’ai déjà pu utiliser personnellement avec succès sur une clé USB défaillante. Cet outil dispose de nombreuses options, et ligne de commandes oblige il est possible de faire tout un tas de bidouilles avec, comme ici, trier les fichiers restaurés 🙂

Terminologie DNS

Les erreurs de vocabulaires sont très courantes à propos du DNS, même pour ceux qui pratiquent au quotidien (parler de racine plutôt que d’apex par exemple), et l’âge de la norme qui n’avait jamais été rafraichie n’aide pourtant pas. Via cette nouvelle RFC, qui ne fait que rassembler plusieurs dizaines d’années de spécifications successives (le DNS date de 1983), on a dans un seul document pratiquement tout le vocabulaire et les définitions pour maitriser son sujet, et sans surprise on peut remercier Stéphane Bortzmeyer pour son résumé/traduction 🙂

Comment la France s’est vendue aux GAFAM / Les GAFAM ont gagné, que faire ?

J’ai décidé de compacter deux liens dans le même sujet, puisque le deuxième est une réaction au premier, et que donc pour avoir le tableau d’ensemble il faut lire les deux. Tariq Krim est un entrepreneur français emblématique dans le domaine de l’Internet, premier étranger récompensé par la revue Technology review du MIT en tant qu’innovateur, il a publié une tribune dénonçant l’abandon de nos dirigeants face aux géants américain du numérique, en retraçant toute l’histoire depuis la naissance d’Internet. Qu’on soit d’accord avec le point de vue ou pas, cet historique est très intéressant à connaitre. Et l’article a bien circulé, particulièrement dans les sphères de ceux qui veulent se battre contre ces même GAFAM.

André Ani est un libriste convaincu, militant, contributeur, écrivain de plusieurs ouvrages autour des sujets qu’il affectionne, il a tout naturellement vu et lu cette tribune, et bien qu’il soit d’accord en grande partie avec Tariq Krim, partage et complète son propre point de vue sur la question en allant un peu plus loin, car comme souvent, dénoncer c’est bien, proposer autre chose c’est mieux. Avec un soupçon d’autocritique de quelqu’un qui fait déjà des choses, et c’est toujours appréciable à lire.

Faire adhérer CentOS 7 à un domaine Active Directory

C’est un fait, aussi malheureux soit-il, mais Microsoft Active Directory reste LA solution de référence pour la gestion d’un parc de postes informatiques en entreprise, ce qui impose donc aussi d’utiliser Windows en tant qu’OS sur les postes clients (pc fixes, laptop, tablettes/hybrides). Mais il est tout de même possible de relier des postes sous OS Linux au domaine, et Adrien D nous a documenté tout ça dans une page de wiki très propre. On en est pas encore à se débarrasser du serveur (Samba 4 avance sur pas mal de points mais c’est pas encore ça), mais voilà, dans une certaine mesure, pour les clients, c’est possible.

PAROLE 2 PRO. Romain Vincent de JVH (Jeux vidéo & Histoire)

L’utilisation de jeux vidéos pour l’enseignement à l’école ? Ce professeur et chercheur a tenté l’aventure, et en a discuté pendant un entretien avec l’équipe d’UnDropDansLaMare, sur les avantages, les inconvénients, les limites, le rôle des parents et surtout leur absence, bref, un entretien très intéressant à lire et partager.

15 Mesures de sécurité essentielles à WordPress

Je l’ai rappelé dans mon billet sur Tumblr, WordPress représente désormais plus de 30% du web visible. C’est à la fois une sacrée performance mais un sacré défi pour l’avenir proche, vu que les choix d’Automattic ne vont pas dans le sens de la sécurité, il faut s’armer de son côté pour éviter d’alimenter les nombreux réseaux de zombies commandés par des malfrats qui font payer leur service d’attaque via des sites infectés.

Qui dit popularité dit ressources nombreuses sur le CMS, et c’est sans surprise chez l’une des références françaises de la formation autour de WordPress que l’on peut découvrir ce guide/rappel de sécurité qui a déjà plus d’un an mais qui est plus que jamais d’actualité.

Project Alias : Un hack pour rendre sourd vos assistants personnels

A mon grand regret, les enceintes connectées ont eu beaucoup trop de succès à Noël, permettant aux géants américains d’écouter désormais vos conversations privées directement au cœur des foyers, sans possibilité de contrôle autre que de débrancher l’enceinte quand elle ne sert pas, ce qui est un peu contradictoire avec un outil qui doit être disponible à portée de voix.

Autre point pénible, pas possible de personnaliser l’accroche de commande (OK Google, Dis Siri…), donc n’importe qui peut prendre le contrôle de ce genre d’appareil sans barrière. Le projet Alias est donc doublement utile : ce capot à poser sur les micros d’une enceinte connectée génère du bruit évitant toute écoute passive de la part des sociétés via leurs appareils, mais permettent quand même de les utiliser via une commande personnalisée (le bruit s’arrête alors pour transmettre votre commande à l’assistant).

Et tous les plans et schémas sont en libre accès pour pouvoir adapter aux différentes enceintes du marché. Le modèle prototype pour la Google Home montre que ce n’est pas trop moche par dessus l’appareil qui n’a pas été conçu pour être recouvert à la base, un autre designer saura certainement faire mieux. Ça n’empêchera pas que Google & co enregistre vos questions et les réponses associées, mais au moins ils n’auront plus que ça et pas vos discussions intimes.


C’est qu’on a encore débordé un peu des dix liens dis donc ! Bon pas grave, de toute façon vu la densité, vous avez de quoi faire pendant un bon mois facile, rendez-vous au prochain épisode 😉

Quelques astuces diverses, quinzième

dimanche 10 février 2019 à 10:30

2019 ne fait pas exception aux années précédentes, tant qu’on se servira d’ordinateurs il y aura une foultitudes de petites astuces du quotidien qu’il sera toujours intéressant de découvrir et de partager, alors c’est parti !

De l’importance des options de dd

J’ai offert du SSD dans la famille à Noël cette année. Et j’ai fat le choix de cloner les disques d’origine pour pas me retaper des installations de Windows à la pelle. Pendant mes tests avec deux SSD, je suis surpris de la lenteur du transfert :

sudo dd if=/dev/sdb of=/dev/sdc status=progress
144581120 octets (145 MB, 138 MiB) copiés, 6 s, 24,1 MB/s

En fouillant un peu sur le net, dd propose des options dont une en particulier m’a permis de bien bourrer le débit :

sudo dd if=/dev/sdb of=/dev/sdc bs=128K status=progress
2289303552 octets (2,3 GB, 2,1 GiB) copiés, 12 s, 191 MB/s

Voilà, pour mes besoins ça a suffi, le vrai transfert lui devait durer plus d’une heure avec ces paramètres (correction, il a pris quasiment trois heures pour mon beau-frère, heureusement qu’on était au cinéma), et je suis certain qu’il y a des brutasses pour m’expliquer les formules de calcul pour maximiser encore plus les résultats.

VLC/Qt5 : souci d’échelle pour l’interface

La densité d’affichage a augmenté sur mon nouveau laptop par rapport à l’ancien (14″ Full HD au lieu de 15″ HD ready), ce qui amène des surprises. Des images valant mieux qu’un long discours :

On le voit, les contrôles sont énormes et je vous parle pas des menus. Et la mise à l’échelle d’une appli Qt dans un environnement GTK c’est pas encore ça. Fort heureusement on peut jouer sur ce comportement via une variable d’environnement, ici il faut la poser dans ~/.profile :

export QT_AUTO_SCREEN_SCALE_FACTOR=0

Vous pouvez recharger ensuite votre session, les applis Qt devraient maintenant avoir une meilleure tête. La preuve :

Lister les IPs bannies par fail2ban

fail2ban fait partie des outils que je vous recommande pour apporter une sécurité supplémentaire à votre serveur, en détectant des comportements à partir des journaux système. Pour avoir juste un petit résumé des IPs qu’il a banni, je suis tombé sur cette routine bien affreuse à lire mais tout à fait efficace :

fail2ban-client status | grep "Jail list:" | sed "s/ //g" | awk '{split($2,a,",");for(i in a) system("fail2ban-client status " a[i])}' | grep "Status\|IP list"

Dans mon cas, j’ai découvert un abus de l’utilisation du data saver de Google, qui s’est donc retrouvé bloqué à l’entrée du serveur de mon client.

Exploiter X-Forwarded-For dans IIS

Oui c’est plutôt rare pour être signalé, mais lors de recherches liées à cet entête HTTP très utilisé dans des contextes de load-balancing et de proxyfication, je suis tombé sur cet article qui vous explique comment enregistrer et exploiter cet entête dans IIS, le serveur web phare des plateformes Microsoft Windows. Car on y met généralement l’adresse IP du visiteur.

Pour rappel même si c’est juridiquement un peu flou pour l’instant on est encore obligé de conserver des journaux web d’identification des visiteurs à des fins légales (par exemple en cas d’injure publique, menace de mort, harcèlement…). L’adresse IP du visiteur doit donc être enregistrée correctement.

Comprendre ce qui a merdé dans une requête MySQL

Lors de la mise en place d’une base mysql pour la gestion des utilisateurs de proftpd, on a coincé sur une requête qui vérifie si l’utilisateur est activé et pas expiré :

mysql> SELECT userid, passwd, uid, gid, homedir, shell FROM users WHERE (userid='user1') AND (((disabled!=1 and (NOW()<=expires or expires=-1)))) LIMIT 1;
Empty set, 1 warning (0.00 sec)

Y’a un warning, mais on a pas le détail du warning en question. Ben en fait pour récupérer ce warning c’est tout simple :

mysql> show warnings;
+---------+------+--------------------------------------------------------------+
| Level | Code | Message |
+---------+------+--------------------------------------------------------------+
| Warning | 1292 | Incorrect datetime value: '-1' for column 'expires' at row 1 |
+---------+------+--------------------------------------------------------------+
1 row in set (0.00 sec)

Oui ça parait évident à certains mais je suis pas un expert MySQL/MariaDB non plus même si je me débrouille hein 😀

Réparer pip après l’installation d’azure-cli

Je suis en train d’apprendre à déployer des applis sur un cluster AKS (Azure Kubernetes Services). A l’installation de l’azure-cli via pip, toutes la connectivité HTTPS a été pétée :

$ az aks install-cli
Traceback (most recent call last):
  File "/usr/lib/python2.7/runpy.py", line 174, in _run_module_as_main
    "__main__", fname, loader, pkg_name)
  File "/usr/lib/python2.7/runpy.py", line 72, in _run_code
    exec code in run_globals
  File "/usr/local/lib/python2.7/dist-packages/azure/cli/__main__.py", line 32, in <module>
    az_cli = get_default_cli()
  File "/usr/local/lib/python2.7/dist-packages/azure/cli/core/__init__.py", line 515, in get_default_cli
    help_cls=AzCliHelp)
  File "/usr/local/lib/python2.7/dist-packages/azure/cli/core/__init__.py", line 60, in __init__
    register_ids_argument(self)  # global subscription must be registered first!
  File "/usr/local/lib/python2.7/dist-packages/azure/cli/core/commands/arm.py", line 180, in register_ids_argument
    from msrestazure.tools import parse_resource_id, is_valid_resource_id
  File "/usr/local/lib/python2.7/dist-packages/msrestazure/__init__.py", line 28, in <module>
    from .azure_configuration import AzureConfiguration
  File "/usr/local/lib/python2.7/dist-packages/msrestazure/azure_configuration.py", line 34, in <module>
    from msrest import Configuration
  File "/usr/local/lib/python2.7/dist-packages/msrest/__init__.py", line 28, in <module>
    from .configuration import Configuration
  File "/usr/local/lib/python2.7/dist-packages/msrest/configuration.py", line 37, in <module>
    from .pipeline import Pipeline
  File "/usr/local/lib/python2.7/dist-packages/msrest/pipeline/__init__.py", line 52, in <module>
    from requests.structures import CaseInsensitiveDict
  File "/usr/local/lib/python2.7/dist-packages/requests/__init__.py", line 84, in <module>
    from urllib3.contrib import pyopenssl
  File "/usr/local/lib/python2.7/dist-packages/urllib3/contrib/pyopenssl.py", line 46, in <module>
    import OpenSSL.SSL
  File "/usr/local/lib/python2.7/dist-packages/OpenSSL/__init__.py", line 8, in <module>
    from OpenSSL import crypto, SSL
  File "/usr/local/lib/python2.7/dist-packages/OpenSSL/SSL.py", line 194, in <module>
    if _lib.Cryptography_HAS_SSL_ST:
AttributeError: 'module' object has no attribute 'Cryptography_HAS_SSL_ST'

Pour réparer, c’est un peu dégueu mais ça fonctionne :

$ sudo rm -rf /usr/local/lib/python2.7/dist-packages/OpenSSL/
$ sudo apt install --reinstall python-openssl

Honnêtement vu la quantité de paquets que déclenche l’installation d’azure-cli via pip, j’ai été découragé de chercher la vraie source. Évidemment adaptez le chemin d’installation du dossier OpenSSL à votre version de Python et/ou votre OS 🙂

Délester le trafic des bots, version Nginx

Denis a du prendre récemment des mesures sur son blog pour délester son hébergement de robots un peu méchants qui saturaient les ressources de sa machine. Mais il n’a fourni la directive que pour Apache. Si vous êtes sous Nginx, vous pouvez utiliser cette règle :

location / { 
  if ($http_user_agent ~ ""(; |^|@|/|.)?(Ahrefs|Cliqz|Dot|linkfluence|MJ12|[mM]oreover|Nuzzel|[oO]wlin|Rewyer|rogerbot|semantic-visions|Semrush|Slack|[sS]ociallymap|Superfeedr|ubermetrics|YaK)([bB]ot)?(/| |-|.)?"") {
    rewrite ".*" /"https://feeds.feedburner.com/dsfc?format=xml" redirect;
  }
}

Je crois qu’on peut se passer du location, mais si vous avez déjà un location / vous pouvez juste ajouter le « if » dedans 😉

Docker : réutiliser les volumes d’un container existant

La formulation peut être étrange, mais vous allez comprendre. J’ai enfin monté une copie de mon blog sur mon cluster Docker Swarm pour pouvoir faire mes essais de modifications et préparer le futur. Lors d’une migration de WordPress, un outil devenu vite incontournable est wp-cli, qui permet notamment du traitement de masse sur la base de données via la configuration du blog. Sur un hébergement classique on se met à la racine du WordPress et on lance la commande. Mais dans la configuration Docker, on a pas accès à la racine puisqu’elle est dans le container, la seule persistance qui reste est le wp-content.

Docker permet cependant d’exécuter un autre container à partir des données d’un container existant, et c’est parfait pour le cas de wp-cli pour simuler justement le lancement depuis le wordpress installé dans le container voisin. La syntaxe n’est pas évidente, mais elle sauve une vie :

docker run -it --rm --volumes-from <container-id> --network container:<container-id> wordpress:cli search-replace "://old.domain.tld" "://new.domain.tld"

A exécuter sur le nœud qui exécute le container WordPress (si vous avez plusieurs containers, n’importe lequel conviendra). Et dans mon cas, je sais déjà que mon thème va me poser des problèmes pour le futur via des alertes PHP…

grep : concaténer plusieurs filtres d’exclusion ou d’inclusion de recherche

Récemment, j’ai tenté d’obtenir du sens et comparer un certain trafic de journaux web à une semaine d’intervalle. J’ai commencé à empiler les grep -v « blabla » |grep -v « blublu », facile pour itérer sur les exclusions, mais il y a plus lisible (et potentiellement plus rapide et moins consommateur) :

zcat access_log.20.gz |egrep -v ".css|.js|.jpg|.gif|.png|favicon.ico|POST" |wc -l

egrep (qui permet de déclencher le mode expression régulière), et des pipes qui séparent les modèles à exclure. Évidemment vous pouvez procéder de même pour inclure des modèles à rechercher.

Twidere : récupérer les fonctionnalités de messages privés

L’application Twidere sur Android est sympathique, mais le développement a cessé depuis un peu plus d’un an. Entre temps, Twitter a fait le gros dégueulasse avec son API et j’ai découvert que les messages privés n’étaient plus mis à jour dans l’application. En fouillant les issues Github, j’ai trouvé une solution qui a fonctionné pour moi, à savoir modifier les clés d’API dans les paramètres (settings), réseau (icône en forme de terre), Avancé, Paramètres API par défaut :

Clé client (Consumer key) : 3nVuSoBZnx6U4vzUxf5w
Mot de passe client (Consumer secret) : Bcs59EFbbsdF6Sl9Ng71smgStWEGwXXKSjYvPVt7qys

Il faut ensuite supprimer le compte et se relogger dessus, et ça rétablit le service (les messages privés de groupe sont même dispos !). Si ça ne fonctionne pas pour vous, le problème vient peut-être de la clé, auquel cas d’autres sont disponibles sur cette page github.


Voilà, je suis content de cette fournée, elle ne concerne pas que de la ligne de commande, on couvre de l’application de bureau, de l’application Android, et même du Windows, comme quoi tout est possible 🙂

Les avantages et inconvénients du jeu sous Linux

mercredi 30 janvier 2019 à 18:30

J’entends moins souvent la critique ces deux dernières années, mais elle existe encore : Linux c’est pas fait pour jouer et y’a pas de jeux dessus. C’est d’autant moins vrai maintenant, mais notre plateforme préférée n’est pas encore le paradis sur terre, voyons donc quels sont les points forts et les points faibles qui caractérisent la banquise pour les jeux vidéos sur PC.

Un monde bien plus accueillant qu’avant…

Historiquement le jeu vidéo sur PC reste un frein majeur à une libération de nos machines d’un Windows dont la version 10 et ses différentes itérations depuis sa sortie sont vraiment à éviter autant que possible. Mais depuis plusieurs années maintenant, et notamment grâce à un soutien majeur de la part de Valve, Linux peut vraiment être considéré comme une alternative crédible pour piloter votre matériel.

En effet, pour ceux qui débarquent, Valve est une société de développement de jeux vidéos qui aura permis au monde de découvrir Half-Life, Counter Strike, Portal, DOTA2, Left 4 Dead et surtout, Steam. Sorti en 2004 avec Half-Life 2, Steam est une plateforme communautaire, et une boutique en ligne, leader sur le marché PC. En 2013, après des mois de rumeurs Valve présente SteamOS et les Steam Machines, des PCs livrés sous un OS à base de Debian Linux pensés comme des alternatives aux consoles de salon. Steam lui-même est disponible depuis fin 2012 pour les différentes distributions (officiellement Debian et Ubuntu sont les seuls supportés), et tous les jeux Valve sont adaptés pour tourner sous Linux, permettant de montrer que non seulement c’est faisable, mais surtout que les performances sont là (ils ont même eu des surprises avec certains jeux plus performants sous Linux que sous Windows). Valve contribue et publie plusieurs outils facilitant le portage et le développement, remonte quantité de bugs aux pilotes open-source notamment graphiques, bref, qu’on soit pour ou contre le jeu « propriétaire », la contribution de Valve dans le domaine pour notre plateforme préférée est indéniable.

La moitié presque de ma bibliothèque, et je n’ai pas testé avec Proton

Au point que les principaux fournisseurs de moteurs de jeu, Unreal Engine 4 pour Epic, Unity, CryEngine, proposent tous un support natif de Linux comme plateforme cible. Pour ceux qui ne veulent pas prendre directement en charge la plateforme, des experts dans le domaine du portage émergent ou reviennent sur le devant de la scène, dont un majeur est Feral Interactive, à qui on doit la disponibilité de gros titres comme Alien Isolation, Mad Max, Deus Ex Mankind Divided, Tomb Raider (depuis le reboot de 2013), plusieurs titres Warhammer et XCOM. D’autres titres un peu plus anciens ont vu leur portage natif aussi, comme les titres 2033, Borderlands, Rocket League, Worms, The Witcher, et comme je l’ai dit quantité de titres indépendants, aidés par leur moteur qui propose un support natif.

Dernièrement, Valve a initié le projet Proton. Basé sur WINE, qui est une couche de traduction permettant d’exécuter directement des programmes conçus pour Windows sous Linux, Proton se concentre sur les jeux vidéos et permet de lancer une quantité toujours plus importante de jeux prévus uniquement pour Windows directement sous Linux. Le logiciel est jeune, le support est variable en fonction des jeux, mais le travail est déjà impressionnant. Dommage par contre qu’on ne voie pas les corrections et améliorations remonter sur le projet d’origine (probablement parce que certaines optimisations peuvent être protégées par des brevets). Le projet est encore en beta et les remontées sont plus que bienvenues pour les titres qui ne sont pas encore supportés correctement.

Steam n’est pas le seul acteur à proposer de distribuer des jeux sous Linux, GOG est un autre acteur qui joue la carte du « sans DRM » pour la plupart des jeux, en tout cas pas de DRM maison par défaut, qui est l’un des points noir de Steam qui a malheureusement contribué à son succès (les éditeurs voulant à tout prix s’assurer qu’on ne peut pas copier leur jeux). Le catalogue est cependant moins fourni, mais les titres disponibles sous Linux sont facilement accessibles, et installables sans client dédié. Autant dire que faut être un gros consommateur pour être en manque sous Linux désormais.

Un autre aspect qu’on oublie facilement lorsqu’on parle de jeu vidéo, c’est la communication entre joueurs, et là aussi, aucun problème sur la banquise. Teamspeak, Mumble, Discord, les trois gros représentant de la discussion audio sont présents. Pour la technique Mumble et Teamspeak utilisent Qt comme bibliothèque d’interface, les rendant légers, Discord a malheureusement fait le choix d’Electron, vous consommez donc plus de 200Mo de mémoire pour profiter du service (Electron en gros package une appli web avec un navigateur web Chromium, et un nodejs en dessous, que des outils lourdingues).

Dans le même esprit, si vous comptez diffuser vos parties en direct (parce que vous êtes suffisamment équipés aussi bien en matériel qu’en connexion fibre), Open BroadCaster Software est également présent et de ce que j’ai pu en juger par mes premières manipulations, tout aussi capable que sous Windows.

Mais il manque encore pas mal de choses

En parlant de communication, un des points noirs du « gaming » sous Linux concerne les périphériques. Non pas qu’ils ne sont pas reconnus, généralement les claviers, souris et casques USB sont reconnus quand ils sont branchés, par contre, les outils pour le paramétrage des fonctions avancées, c’est pas la même sauce. Ils sont tout simplement inexistants, pour certains dont les paramètres sont stockés dans une mémoire interne ça peut éventuellement se contourner (on configure sous Windows et on utilise sous Linux), mais généralement c’est pas Byzance. Si vous n’utilisez pas les fonctions avancées de vos périphériques (contrôle des LED, programmation des touches supplémentaires), vous pourrez tout de même profiter de votre matériel dans les mêmes conditions. Par exemple, je n’avais pas vu d’interface pour ma manette d’Xbox 360, pourtant j’en profite régulièrement.

Si pendant des années les initiatives indépendantes d’interfaces de gestion ont difficilement existé et se concentraient parfois sur un seul modèle très populaire (souris ou clavier), avec justement l’élargissement de l’offre, plus de développeurs ont attaqué leurs périphériques, certains fabricants soutiennent presque officiellement certaines initiatives. Là je vais pas trop m’étendre sur le sujet, un confrère a fait plusieurs articles très bien fait sur le sujet que je vous invite à lire. Avantage, entre autres pour Razer, c’est que vous pouvez du coup utiliser une interface qui ne vous demande pas d’abandonner quelques informations personnelles pour utiliser du matériel (oui, Razer Synapse vous demande de vous inscrire avec une adresse e-mail pour gérer votre souris sur votre ordi). Roccat semble être un fabricant à contre-courant puisqu’il a développé et publié pilotes et utilitaires, plutôt cool non ?

Si Proton est une initiative intéressante qui avance très vite, tous les jeux ne pourront pas être supportés à cause de certaines technologies sales qui sont très dépendantes de l’architecture du noyau Windows. En particulier, pour prendre l’exemple de PUBG, techniquement il utilise l’Unreal Engine 4, donc il pourrait supporter Linux nativement, mais l’outil anti-triche qu’il embarque fonctionne de la même façon qu’un antivirus qui est fortement dépendant des technologies bas-niveau du système d’exploitation, qui ne peuvent pas être traduites. Il n’est pas seul sur le sujet, pendant plusieurs années si je pouvais faire tourner Call of Duty 2 et 4 sous Linux via Wine sans difficultés particulières, un des éléments disqualifiant pour jouer en ligne était Punkbuster.

Je pense que c’est explicite…

Aussi, plusieurs gros éditeurs qui lient leurs jeux à un lanceur spécifique (faisant aussi office de boutique en ligne maison, comme Steam) sont mécaniquement absents sous Linux : UPlay (Ubisoft), Origin (EA), Battle.net (Blizzard), sont toujours limités à Windows, parfois dispos sous Mac (pour Blizzard). Exit donc les Assassin’s Creed, Far Cry, Battlefield, Overwatch… Je ne sais pas comment ça a évolué, mais j’avais pu en 2008 jouer à WoW sur mon HP sous ArchLinux via WINE, mais certains se sont vu bannir parce qu’on considérait qu’ils cherchaient à tricher, ce qui est toujours gênant (perso je m’en foutais je jouais sur un serveur privé). L’offre restera donc toujours moins complète que sous Windows, mais si ces gros titres ne vous intéressent pas, que vous êtes un drogué des jeux indés, alors ça pourra tenir le choc. Les raisons sont souvent économiques avant d’être techniques (encore que ma réflexion sur les moteurs de jeu me semble toujours d’actualité), les gros éditeurs ont de gros sous à faire pour satisfaire des actionnaires avant de faire plaisir aux joueurs et aux développeurs.

Malgré les améliorations qui sont plus que significatives, le support des pilotes graphiques reste encore très problématique sous Linux. Souvent, les éditeurs indiquent seulement un support officiel uniquement pour le pilote Nvidia propriétaire, car c’est finalement le plus facilement prévisible. En effet, le caméléon distribue son pilote sous une forme packagée indépendante de la distribution, comme sous Windows, quand du côté des pilotes open-source c’est beaucoup plus bordélique. En effet, entre le DRM (la partie noyau), la partie user-space (Xorg/wayland), la partie MESA, chaque distribution propose donc son propre cocktail de versions des différents composants qui sont moins facilement mis à jour (à part sous Arch Linux/Manjaro). C’est notamment le cas pour Intel, même si celui-ci propose d’installer les derniers composants via une batterie d’outils d’installation sur son site, et chez AMD c’est tellement la foire que j’ai perdu le fil, à un moment donné il y avait trois pilotes différents, dont le support était très différent en fonction des générations de matériel. Jouer donc avec ces pilotes est très aléatoire, et vous êtes tous seuls quand vous rencontrez un problème. Pire, ne comptez pas sur une interface graphique pour manipuler finement les paramètres pourtant nombreux de ces pilotes graphiques, seuls les chemins dans /proc et /sys peuvent vous aider. Pour ma part j’ai pu tester les jeux Valve, Rocket League, Serious Sam 3, sur le laptop avec la carte intégrée Intel, qui n’est absolument pas faite pour ça mais ça fonctionne (faut salement baisser les réglages pour que ça soit fluide). Mais c’est pas une évidence. Ça limite donc le choix sur le matériel, Nvidia reste une préférence même sous Windows.

Et les jeux « libres » ?

De par l’investissement demandé, aussi bien technique mais surtout artistique, les jeux libres/open-source ne sont pas légion, même si certains titres vivent très bien. Unvanquished, 0ad, SuperTux Kart (qui va bientôt finaliser son mode multijoueurs en ligne), j’en ai chié sur SuperTux, un « clone » de Super Mario Bros avec notre manchot préféré en guise de protagoniste, pas parce qu’il est mal fait mais il devient vite exigeant et je ne suis plus vraiment une brutasse dans les platformers (pourtant j’ai kiffé Splasher), Armagetron réveillera la nostalgie des adorateurs de Tron, certains s’attaquent à recoder le moteur de jeux comme Command and Conquer (Red Alert), Total Annihilation, bien que les données restent propriétaires… D’autres projets dont je n’ai pas forcément connaissance pourront vous donner à la fois du fil à retordre mais aussi de longues heures de plaisir, vous aurez par contre à composer avec une qualité graphique et/ou sonore un peu en dessous des standards du monde commercial.

Un dernier élément qui peut être intéressant, le monde du retrogaming n’a pas oublié la plateforme polaire, et donc les émulateurs sont légion. En effet, vous avez probablement entendu parler des projets comme Recalbox qui ciblent le Raspberry Pi, qui ne font que prépackager les émulateurs et les optimisations pour la plateforme. Ces émulateurs sont évidemment disponibles sur une distribution plus classique, là aussi vous pourrez monopoliser une quantité de temps non négligeable à (re)découvrir des titres du passé, avec l’avantage par rapport au Rapsberry de pouvoir jouer à plus récent (je pense aux plateformes comme la Wii, potentiellement la Xbox 360 (j’ai pas pris le temps de chercher mais en 2015 déjà ça avançait), sûrement la PS3 même si ça peut demander une machine solide pour en profiter. L’aspect légal est toujours compliqué alors je vous laisse décider, mais c’est là.

Windows n’est plus la seule option

C’est ce qu’il faut retenir de cet article finalement. Quand on fait l’inventaire de ses usages, de ses matériels, que rien ne semble être bloquant y compris dans ce bastion qu’est le jeu vidéo, alors il n’y a aucune raison de conserver Windows sur son PC. J’ai déjà pu le dire et le redire, mais si vous êtes prêt à faire l’effort de vous libérer d’une plateforme qui vous plaît de moins en moins, franchement, entre collecte indue de données, absence de contrôle sur les mises à jour, installations de logiciels pénible (sans parler du Windows Store), vous trouverez certainement dans l’univers Linux la distribution qui vous siéra, qui siéra à votre matériel, bref, votre bonheur, parce qu’avec un monde qui devient de plus en plus tourné vers le numérique, il est plus que nécessaire de disposer des bons outils, des outils qui vous servent avant de servir leur fabricant/développeur.

Tumblr se suicide, mais le Web gagne-t-il pour autant ?

dimanche 27 janvier 2019 à 10:30

Pour ceux qui ne connaissent pas Tumblr, c’est une plateforme de blogs américaine rachetée il y a quelques années par Yahoo, et appartenant maintenant à Verizon, qui est très populaire par sa facilité d’utilisation (bien que frustrante pour certains), et très prisée par les producteurs indépendants de contenus « adultes », notamment photo (avec une forte présence féminine, ce qui est plutôt rare étant donné que les plaisirs adultes sont majoritairement partagés pour et par des hommes en général). C’est aussi un haut lieu des communautés dite alternatives (vous connaissez l’acronyme LGBT ? ça en fait partie). Mais Tumblr veut faire le pari du puritanisme à l’américaine en expulsant les utilisateurs et leurs contenus (interprétation). Les conséquences sont à la fois bonnes et peu attrayantes, suffisantes pour en discuter ailleurs qu’en retweetant un truc.

NB : Je tiens à préciser ici que je n’aborde pas volontairement la problématique de l’accès à ces contenus, notamment par les mineurs, un point qui n’est pas souvent abordé par les médias américains mais qu’on met trop rapidement en lumière en France sans jamais prendre de bonnes décisions. J’ai déjà une réflexion en cours sur le sujet, mais elle demande beaucoup de boulot de recherche, je la publierai certainement cette année parce que c’est un sujet qui me tient à cœur quand bien même je n’ai pas d’enfant (la plupart de mes amis et pas mal de collègues de boulot sont parents, et sont très connectés numériquement).

Alors techniquement aucun contenu n’est supprimé de la plateforme, mais tout est tellement masqué que ça ne sert à rien de publier un contenu qu’on ne pourra pas partager même gratuitement (surtout gratuitement, je ne me souviens pas avoir vu Tumblr proposer de rémunérer les auteurs sur leurs plateformes). Bref, si plus de visibilité, autant se barrer, puisque publier ne sert plus à rien. Mais ce n’est pas sans conséquence. Et le mouvement que j’ai vu naître, pour suivre moi-même quelques blogs de photos de nus (Bonjour Madame est l’un d’entre eux), est une migration massive vers des blogs sous moteurs WordPress, comme le site sur lequel vous vous trouvez actuellement (mais vaut mieux pas me voir nu, je vous assure), avec en dessous plusieurs méthodes pour l’hébergement, ainsi qu’une batterie d’extensions propres à chaque auteur de site.

Parmi les points positifs, le fait de se libérer d’un acteur américain centralisateur et ayant prise sur la publication et la visibilité des contenus est toujours une bonne chose. Tumblr était parfois montré du doigt pour ses limitations sur le design des sites, et une fois de plus sa politique débile sur les contenus. Basculer sur un site indépendant rend donc pas mal de libertés à leurs créateurs, et en soi WordPress, base technique qui représente déjà environ 30% des sites du web visible n’est pas le plus mauvais qu’on peut faire pour disposer rapidement d’un outil de publication à même de répondre à ses besoins. Surtout que ça peut aider pas mal le référencement, un point qui va être sensible lors de cette migration. Dans tous les cas l’outil est facile à prendre en main ce qui permettra aux créateurs de se concentrer sur leurs contenus, et c’est pour ça qu’on les suit. Voire créer de nouvelles interactions qui n’étaient pas possibles sur Tumblr.

Pour les points négatifs, le niveau de gravité est variable, il ne faut donc pas prendre ça comme une liste ordonnée. D’abord, maintenant que chaque site est indépendant, on perd un des points qui faisaient de Tumblr une plateforme intéressante, un réseau social de blogs, à savoir la capacité pour un utilisateur de « reblogger », à la manière des tweets, un article d’un blog sur son propre blog. Cela permettait à certains sites d’être de véritables chercheurs d’or, vous faisant découvrir d’une simplicité déconcertante un site correspondant à votre intérêt (votre kiff ce sont les rousses ? –c’est dans le sujet hein). Libre à vous ensuite de le suivre ou de récupérer le flux RSS. Jusqu’à ce que certaines extensions ou fonctions de thèmes soient développées, vous perdez quelques fonctions comme l’affichage simple des archives surtout pour les blogs photos, et une fonction random que j’aimais bien qui affiche une photo au hasard sans se palucher toute l’archive qui n’était pas la plus légère pour les navigateurs (oui bon « se palucher » en parlant de contenus adultes, j’ai déjà été plus inspiré ^^’). Là ce sont des conséquences mineures, qui pourront avoir un impact plus ou moins important sur la visibilité sachant que d’autres réseaux sociaux autour restent tout de même de bons vecteurs.

Là où j’ai plus de craintes, c’est que parmi les WordPress que je voient montés, beaucoup semblent encore en train de faire sécher la peinture (avec des menus limites par défaut), j’ose espérer que les personnes qui s’en occupent ne découvrent pas seules le fait d’avoir à gérer l’hébergement et la maintenance de l’outil qui était auparavant à la charge de Tumblr (et de la plateforme en dessous). WordPress est certes une plateforme populaire, mais ça la rend très prisée des attaquants prêts à soit voler des informations en base, soit infecter le site pour voler celles de leurs visiteurs, les ajouter à un réseau d’autres ordinateurs infectés (botnet), tout ce qu’on déteste en tant qu’administrateur, visiteur, amoureux d’un réseau propre.

Ce n’est pas juste une vision de mon esprit. Je ne compte plus le nombre d’incidents de sécurité que j’ai vu passer ou sur lesquels je suis intervenu qui impliquaient des WordPress peu ou pas maintenus, parce que ça demande du temps et donc de l’argent (et c’est souvent à la charge de l’intégrateur qui ne fait pas ça gratuitement – je pourrais en faire un article à part de ces pratiques d’ailleurs). Imperva a publié une étude indiquant que c’est la plateforme la plus attaquée de 2018, principalement à cause des plugins. D’ailleurs l’un des plus populaires a eu une activité intéressante en ce début d’année, le site de la version payante de WPML a été défacé par un ex-employé de la société qui pilote le développement. Il y a peu de chance, mais avec une telle mentalité il aurait très bien pu planquer un moyen d’attaquer les sites qui profitent de cette version du plugin…

Je ne sais pas trop cependant si des alternatives, dont certaines pouvant être installées sur des hébergements mutualisés, et correctement maintenues en matière de sécurité, existent, ce qui éviterait une monoculture du CMS qui s’installe doucement mais sûrement à la façon d’un virus Chrome qui a phagocyté le « marché » des navigateurs web. Zenphoto peut-être, à voir si les outils pour faire un bon remplaçant à Tumblr et WordPress sont là pour les créateurs photos. Pour ceux pissant du texte au kilomètre, on peut faire la course sur WordPress sans problème c’est plus adapté. Malgré tout certains commencent à se poser la question de quitter WordPress, même si la réflexion a pour base le nouvel éditeur qui semble particulièrement diviser (je n’ai pas encore eu l’occasion de le tester pour juger, en raison de plugins qui pourraient ne pas passer la mise à jour). Comme je l’ai déjà dit ces sites sont tous indépendants, il n’y a plus la notion de réseau. Certains ont du coup atterri chez Ello, qui avait presque disparu des actualités, mais à peine la visibilité regagnée qu’ils ont modifié leurs conditions d’utilisation pour réduire la voilure sur les contenus explicites. Eh oui, c’est aussi une société américaine, faut pas rêver.

Bref, un bilan mitigé, je serai content de voir Tumblr disparaître à cause de sa connerie, histoire de leur donner une bonne leçon (mais ça a peu de chance se produire), je suis content de voir les créateurs reprendre le contrôle de leurs contenus, mais dans le même temps j’ai peur pour l’avenir proche quand je vois les choix retenus pour accompagner cette libération. Je sens déjà le métal de l’épée de Damoclès au dessus des enseignes qui ont choisi la voie du CMS le plus populaire de la planète, à devoir me battre contre des absences de maintenance. J’ai peur parce que la majorité des personnes ciblées par cette censure n’est pas en capacité de construire les outils leur redonnant la visibilité qu’ils méritent et qui nourrissent une culture qu’il faut conserver la plus large et diversifiée possible. Tumblr n’est pas le seul « réseau social » à poser régulièrement des problèmes en lien avec ce type de contenus, Instagram cristallise régulièrement l’actualité pour ses censures arbitraires qui ciblent presque exclusivement les femmes et leur nudité. Tant que le Web sera dominé par des sociétés américaines aux outils encore plus fermés que les esprits, il n’y aura pas de bonne avancée pour que diffuse ces cultures qui sont nécessaires à une grande tolérance dans le monde.

Quelques nouvelles astuces à exploiter sur Firefox

vendredi 18 janvier 2019 à 18:30

Parmi quelques volontés pour la nouvelle année, j’ai envie de parler un peu plus souvent de ce qu’il y a de bien dans Firefox, histoire de contre-balancer le bashing permanent contre le dernier bastion de la résistance d’un Web décidé par Google (et encore on pourrait faire un article complet sur le fait que c’est déjà le cas). J’ai découvert ou redécouvert récemment quelques bidouilles bien sympa qui permettront de gagner en confort, alors je partage 🙂

Pour rappel certaines fonctions ne sont disponibles que via des paramètres qui sont cachés par défaut (pas de case à cocher dans les options ou de bouton à cliquer). Pour ça il faut ouvrir un onglet vierge, saisir « about:config » dans la barre d’adresses (et pas la barre de recherche !), et valider le fait qu’on va faire attention :

Désactiver le rafraîchissement automatique des pages

Est-ce que ça vous est déjà arrivé de voir ça sur des sites journalistiques, ou la page est rechargée pendant que vous lisez, perdant parfois le paragraphe où vous vous trouvez ? C’est un vestige d’une pratique peu reluisante visant à gonfler artificiellement le nombre de vues d’un article histoire de maximiser le nombre de publicités affichées, et donc les revenus publicitaires associés. Sachant que c’est pratiquement inutile aujourd’hui, donc à part faire chier les lecteurs qui sont déjà nauséeux lors de la navigation avec cet abus de publicités, ça ne sert à rien. Fort heureusement, Firefox dispose d’une option cachée pour ça :

accessibility.blockautorefresh;true

A basculer sur true d’un double clic 🙂 Vous verrez dès lors un bandeau apparaître quand un site sera bloqué (avec un bouton pour autoriser si besoin) :

Une lecture améliorée avec le zoom et le mode lecture

A l’heure des écrans haute densités (avec bientôt la 4k sur mobile), certains sites qui ne sont pas déjà optimisés pour ces affichages sont illisibles ou presque, le texte étant notamment beaucoup trop petit pour être lu correctement sans s’abîmer les globes oculaires. Ca m’arrive plus souvent maintenant que ce soit sur le laptop en 14 pouces full HD ou le gros pc avec son écran 4k. Si vous êtes face à un tel site, ne fermez pas trop vite l’onglet, il est possible facilement d’utiliser certaines fonctions intégrées du navigateur.

La première, c’est le zoom. Soit avec Ctrl+Molette <haut|bas>, soit via des contrôles qui sont par défaut dans le menu principal mais qu’on peut rajouter à la barre d’outils via le menu « Personnaliser… ». Ce zoom concerne principalement le texte, mais d’autres éléments sont aussi grossis si besoin. Fait agréable, il garde en mémoire le niveau de zoom pour chaque site visité, de sorte que vous n’avez pas besoin de recommencer la manipulation si vous devez revenir sur le même site.

L’autre, c’est le mode lecture. Cette fonction d’abord orientée mobile permet d’épurer la page visionnée pour n’en garder que le texte, quelques images en fonction de la mise en page, et l’affiche sur un fond uniforme avec une taille augmentée mais méchamment. Pour l’activer il y a un tout petit bouton dans la barre d’adresses qui s’affiche quand il détecte la structure de texte :

Ce mode peut être paramétré pour s’afficher en sombre comme ici, en clair par défaut, ou automatiquement en fonction de l’heure de la journée. Je vous laisse essayer sur les sites d’informations pour voir à quel point ça réduit l’agression visuelle.

Déterminer les éléments gourmands en ressource dans le navigateur

L’une des forces des navigateurs modernes, ce sont les extensions qu’on peut leur adjoindre (d’ailleurs vous avez peut-être lu mon dernier inventaire en date qui a déjà évolué, en partie grâce aux commentaires constructifs qui y ont été postés). Seulement voilà, parfois certaines extensions se comportent mal. C’est aussi le cas de certains sites qui sont devenus de vraies applications lourdes dans tous les sens du terme. Si votre système vous dit que Firefox est en train de monopoliser les ressources, un tout nouveau gestionnaire de performance a été introduit pour identifier et éliminer les vrais coupables. Pour y accéder, il faut ouvrir un nouvel onglet, et saisir « about:performance » dans la barre d’adresses. Vous devriez alors avoir un affichage voisin de celui-ci :

Pour l’instant les interactions sont minimales mais ce gestionnaire est amené à s’étoffer dans les prochaines versions.

Spécifique Linux : supprimer la barre de titre

Il n’y a rien de plus frustrant la première fois qu’on arrive sous Linux et qu’on lance son navigateur préféré. En effet sous Windows, il n’y a pas de barre de titre et les onglets sont au plus haut, pour pouvoir maximiser l’espace visible des pages web. Mais pas sous Linux, ou vous avez une barre de titre plus ou moins épaisse (qui comprend aussi les contrôles de fermeture de la fenêtre, qu’on voit aussi sous Windows). Eh bien à priori au moins pour les bureaux GTK3 (Gnome, Cinnamon, MATE), il est possible, via le menu « Personnaliser… », de masquer la barre de titre pour retrouver cet espace vertical comme sous Windows :

décocher pour masquer

Ceci dit l’option existe aussi pour Windows, elle est juste décochée par défaut 🙂

Code source de la sélection

Le souci avec les outils de dev de Firefox, c’est que l’analyseur de contenu formate correctement le code pour faciliter sa lecture. Mais voir le code brut peut renseigner sur le bordel qui se trouve derrière en matière de développement, et parfois mettre plus facilement en lumière un bug applicatif.

Pour ça, il suffit de copier une section de la page, et faire un clic droit, Code source de la sélection. Et là vous allez pouvoir découvrir des choses 🙂

Firefox Screenshots, c’est mieux avec la souris

Avant pour faire une capture d’écran complète d’une page, y compris ce que vous ne voyez pas à l’écran, on avait la console de dev et la commande screenshot --fullpage capture.png, pas très accessible pour ceux qui ne sont pas habitués à la fois à la console de développement et à la ligne de commande. D’autant plus que dans les dernières versions de firefox cette console a disparu (ou alors ça fonctionne plus sous Linux et je suis pas au courant).

Mais Mozilla a proposé un nouvel outil récemment, Firefox Screenshots (et pour une fois on a la doc en français), qui est bien plus pratique et efficace et mériterait d’être un peu plus mis en avant. Mais sur mon pc boulot, c’était désactivé, pour ça il faut retourner dans about:config, et agir sur la clé suivante :

extensions.screenshots.disabled;false

Elle doit être à « false », et pas besoin de redémarrer pour voir l’option dans le menu des actions de pages comme le montre les captures de la documentation 🙂


Voilà, je vais m’arrêter là pour aujourd’hui, si j’en trouve d’autres vous imaginez bien que j’en ferai un nouveau billet, en attendant si vous en avez certaines à partager hésitez pas, les commentaires sont là pour ça 🙂