PROJET AUTOBLOG


alterlibriste

Site original : alterlibriste

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Podcasting : Tout est numérique

lundi 30 juillet 2018 à 18:17

Pendant que les derniers blogueurs du libre français n’en peuvent plus d’agoniser (ils disent qu’on va tous mourir, mais les autres sont déjà morts et eux se retrouvent de plus en plus seuls survivants parmi une horde de sites zombies), je vais malgré tout utiliser cet espace que je délaisse comme beaucoup d’autres (mea culpa) pour en faire ce qu’il avait pour objectif au départ : partager des podcasts traitant de l’impact du numérique sur la société.

Pour les vacances, nos émissions préférées se la coulent douce et il nous manque parfois de quoi se mettre entre les oreilles, mais France Inter nous a fait quelques émissions d’été dont une qui a retenu mon attention : Tout est numérique animé par Olivier Tesquet

L’essentiel est dans le titre. Les sujets sont variés, ne vont pas forcément très en profondeur mais font le tour de la question : algoritmes, robots, big data, loi renseignement, critique de la technologie, ... Je n’ai pas trop accroché sur les premières émissions mais les suivantes m’ont bien plu.

D’une durée de 45 min, c’est diffusé chaque samedi de juillet-août à 9h ou en podcast en flux rss.

Chronique dystopique : L'Intelligence Artificielle ne sera plus ce qu'elle était

lundi 25 juin 2018 à 18:33

Ceci est ma chronique retranscrite du dernier épisode de l’Apéro des Papas Manchots sur l’intelligence artificielle.

Février 2035, aujourd’hui je fête mon soixantième anniversaire, plus que dix ans avant la retraite. Je me réveille avec l’ambiance créée par Aldria. Aldria, c’est mon assistant ; avant on disait maison intelligente, enceinte connectée ou encore intelligence artificielle, mais Aldria, c’est tout ça à la fois. Je lui ai dit hier que je devais me lever pour aller travailler à la Data Factory à 9 h et elle a tout prévu : elle sait qu’il me faut 10 minutes pour émerger donc à 7h30 elle a fait progressivement monter la lumière avec un bruit de cascade (je lui avais dit la veille que j’en avais un peu marre du son des vagues et de la mer qu’elle me mettait habituellement). Elle sait que mon petit-déj doit être prêt à 8 h, le thé y est donc versé dans ma tasse indiquant sur son interface connectée une température parfaite de 65 °C (et 16 % de ma ration d’hydratation journalière optimale).

En fond sonore, dernières auto-informations : d’après l’analyse des données, aujourd’hui le risque de grippe est de 22 %, on aura une averse de 11h32 à 11h55, le trafic internet sera un peu surchargé vers 13 h et d’après mon profil, il m’est recommandé d’aller voir Toy Story 8 sorti cette semaine.

À 8h30, l’auto capsule se gare devant chez moi et Aldria, qui me l’avait commandée, m’annonce qu’il est l’heure que j’y aille. En entrant dans le véhicule, le dernier épisode de Studio404 se lance automatiquement, le sujet : la ville martienne transconnectée.

9 h, j’arrive à la Data Factory, j’ai eu la chance d’être sélectionné pour analyser des situations vidéo pour déterminer si un véhicule devrait s’arrêter, ralentir, redémarrer ou ne rien faire quand par exemple il y a un objet volant, des gens qui discutent devant un passage piéton ou encore une femme qui traverse à côté de son vélo en pleine nuit.

Tout à coup, sur l’écran, un véhicule arrive droit sur moi et me percute, je me réveille en sursaut. Ouf ! nous sommes bien en 2025, aujourd’hui, je n’ai que 50 ans et l’intelligence artificielle a fait fantasmer et cauchemarder beaucoup de monde, un peu comme la réalité virtuelle en 2017. Je mets l’eau à chauffer manuellement et je réfléchis à mon cauchemar.

Dès les années 1960-70, les 1ers ordinateurs avaient alimenté des tas de scénarios d’auteurs de science-fiction qui s’étaient traduits par de nombreux films marquants, s’il ne fallait en citer qu’un, ce serait probablement Skynet dans Terminator, la fameuse singularité, le moment où les machines prennent conscience et le pouvoir sur l’humain afin de promouvoir leur développement sans avoir besoin de lui et qu’elles peuvent donc détruire.

Et pourtant, au début des années 2000, cela s’était bien essoufflé. Ces années tant rêvées n’avaient pas vu l’avènement des robots et des voitures volantes pas plus que d’une quelconque intelligence artificielle. Tout était encore programmé à coup de boucles conditionnelles (if/then/else).

Mais cela a repris de la vigueur dans les années 2010 avec les simulations de réseaux de neurones, les programmes ont commencé à être capables d’apprendre par eux-mêmes et ne plus être basés uniquement sur des calculs ou des conditions définies.

Et on a entendu parler d’intelligence artificielle à tout bout de champ avec en ligne de mire un dépassement certain de celle de l’homme et pourquoi pas une conscience de la machine. Le seul problème, c’est que cette vague a été portée par des transhumanistes réduisant la conscience à des signaux électriques transférables sur disque dur et repris par des journalistes avides de disruption mais peu à-même d’opposer la moindre critique.

D’un côté des codeurs-startupeurs n’ayant aucune notion de philosophie ou de complexité du vivant, de l’autre un public ne sachant rien des dessous de l’informatique ; entre les deux, un écart béant laissant place à toutes les peurs et tous les fantasmes.

On croyait pouvoir tout faire faire à l’intelligence artificielle alors que leurs promoteurs n’avaient plus la moindre idée de la façon de cultiver, de cuisiner ou de se vêtir. Bref, notre soi-disant intelligence moderne était en train d’oublier le savoir-faire ancestral pour répondre aux besoins basiques de l’homme qu’il avait pourtant pratiqués durant des millénaires sans pour cela avoir besoin de lire, écrire ou compter.

Mais les premières fonctions cherchées pour l’IA, c’était quoi ? Comment vendre au mieux à des consommateurs en fonction de leurs centres d’intérêts, de leurs recherches sur internet, de leurs interactions sur les réseaux, de leurs déplacements traqués, etc. Bien sûr, après on a essayé d’appliquer cela à la médecine pour se donner meilleure conscience, à moins que ce ne soit pour mieux vendre des médicaments.

Mais maintenant que tout cela est terminé, rappelons-nous pourquoi le soufflet est retombé.

L’analyse des données a effectivement pu permettre un constat plus rapide des phénomènes et détecter des tendances dès leurs apparitions mais en rien les prévenir et encore moins les prévoir. Quant à en décider des actions à mener pour résoudre les problèmes, ce ne sont que les politiques qui sont restés à la barre.

Ensuite, l’apprentissage avec des données n’a pu se faire qu’à partir de celles existantes et reproduire exactement les schémas déjà réalisés. On a pu reproduire des musiques, des peintures, des écrits ressemblant à certains artistes comme s’ils en étaient les auteurs mais pas créer de nouveautés. Et quand bien même, la créativité d’une machine pourrait-elle être un jour apprécié par un être humain ? Le nirvana électronique n’est peut-être qu’une suite harmonieuse de 0 et de 1 inaccessible à notre entendement. Et comment pourrait rêver une machine dépourvue de sensations quand bien même on pourrait lui apprendre nos émotions et nos sentiments que nous ne maîtrisons pas nous-mêmes ?

Enfin, et parce que l’homme est homme, la machine ne peut qu’apprendre de son comportement qui n’est pas toujours très glorieux et vire très rapidement à la peur de la différence, à la haine raciale, à l’exclusion des minorités et au fanatisme religieux, ainsi, telle l’expérience du chat-bot de Microsoft sur Twitter, l’Intelligence Artificielle n’est finalement devenue que de la Connerie Naturelle.

Que reste-t-il du logiciel libre ? Nous !

lundi 18 juin 2018 à 18:42

Malgré mon relatif silence de ces derniers mois, je continue à écouter des podcasts et impossible de ne pas réagir à l’émission Du grain à moudre passée sur France Culture, intitulée "Que reste-t-il du logiciel libre ?"

Commençons par dire qu’une analyse en a déjà été faite par Cyrille ; je reprends son analyse en intégralité, car elle est perdue au milieu de beaucoup d’autres choses :

C’est assez terrible, c’est presque douloureux. Les intervenants sont Amaelle Guiton Journaliste à Libération, Bernard Ourghanlian directeur Technique et Sécurité à Microsoft France, et Pierre-Yves Gosset délégué général de Framasoft. C’est terrible parce que lorsque Bernard Ourghanlian explique que le logiciel libre a gagné, parle avec facilité de l’époque propriétaire de Microsoft comme étant révolue, évoque le cloud, on a tout à fait compris que ce n’est pas le libre qui a gagné mais Microsoft. C’est terrible parce qu’Amaelle Guiton met le doigt exactement là où ça fait mal en rappelant que les libristes étaient tous sur Github et que gueuler parce qu’une plateforme propriétaire est achetée par une autre boîte propriétaire c’est tout simplement ridicule. C’est terrible parce que le message de PYG qu’il essaie de placer au niveau philosophique ne passe pas, parce que lorsque le journaliste qui se met dans la position de celui qui ne sait pas fait remarquer que d’utiliser un logiciel propriétaire avec du suivi, du service, c’est franchement plus rassurant, il n’y a rien à répondre. C’est terrible parce qu’on comprend que le logiciel libre a remporté la guerre technique à savoir qu’un code confronté à un ensemble de personnes, interne au projet ou extérieur c’est la meilleure manière de renforcer le code, mais que les idées qui sont derrières sont soufflées au profit de l’efficacité. C’est terrible parce que l’émission est tellement pointue qu’il n’y a que ceux qui connaissent le sujet qui peuvent la comprendre, ce sentiment de plus en plus palpable que l’informatique s’éloigne de l’utilisateur final quand le ministère de l’éducation nationale fantasme une nation de développeurs.

Cyrille s’ennuie un peu dans sa tour d’ivoire de blogueur abandonné par tous (moi y compris), il ne m’en voudra donc pas de le titiller un peu et de reprendre les critiques qu’il aime poser sur les billets de Cascador à savoir un manque de profondeur dans l’analyse. Par ailleurs, Microsoft ne parle jamais de logiciel libre mais d’open source (et encore, pas open pour tout le monde, sinon ça se saurait). Sinon, je partage son point de vue catastrophique du résultat de cette émission, mais il faut pousser plus loin l’analyse.

On avait une très bonne journaliste qui connait le milieu hacker (mais parle malheureusement de Richard Stallman au passé) et une pointure du milieu associatif légitimé par les nombreuses actions de Framasoft face à un seul représentant du monde propriétaire ; ils auraient pu n’en faire qu’une bouchée et pourtant même avec un animateur compatissant envers le logiciel libre, ils se sont tollés comme pas permis. D’abord en restant peu compréhensibles envers le grand public et ensuite en n’abordant pas les points cruciaux et fondamentaux de l’intérêt du libre vis-à-vis du propriétaire lavé à la lessive open source.

Il faut dire que le gars de chez Microsoft avait préparé ses cartouches et sachant qu’il serait attaqué, a joué finement le côté pacifiste enthousiaste, on a été des méchants, mais on est devenu gentil. Personnellement, le sujet Github, je m’en balance complètement sachant que je ne suis pas codeur et qu’il y a eu un précédant avec SourceForge. Comme le dit bien Amaëlle Guiton, difficile de comprendre pourquoi les développeurs continuent à se centraliser dans des structures propriétaires. Ce n’est donc ni le premier, ni le dernier événement de ce genre.

Par contre, dans sa grande amabilité, le gars de chez Microsoft a donné la raison pour laquelle ils ont mis autant d’argent sur une structure si peu rentable. Ils ont loupé le tournant de l’informatique mobile, ils reconnaissent que leur OS est trop pourri pour les serveurs au point de préférer utiliser du Linux, ils ont vu arriver les réseaux sociaux sans comprendre ce qui arrivait mais c’est bien là qu’ils ont choisi d’attaquer. Laissant à Facebook et Google tous les aspects vie privée et monétisation des données personnelles pour le marketing, ils misent désormais tout sur les profils professionnels (rachat de LinkedIn) et les compétences de développement grâce au vivier représenté par GitHub. Comme il le dit, l’important ce n’est pas le code mais les interactions entre les développeurs et le fait que la plate-forme est devenue pour eux plus parlante qu’un CV par leurs participations et commits sur différents projets. Ils sont pris au piège s’ils veulent avoir un avenir professionnel dans le milieu. Et que les libristes à la petite semaine s’en aille en fulminant, il n’en a cure, ceux-là ne travaillent de toute façon pas pour des projets bankable.

Mais revenons au sujet du débat, que reste-t-il au logiciel libre ? Quand l’animateur rétorque aux libristes que certes c’est difficile de quitter Windows par le poids des habitudes, mais alors, il est aussi difficile de quitter un logiciel libre comme Firefox si on s’y est trop habitué, il aurait pu être pertinent de dire que pas tant que ça puisque Chrome a tout balayé sur son passage et surtout, il aurait été intéressant de parler d’interopérabilité. Quitter un logiciel propriétaire, c’est aussi difficile parce que les formats sont fermés et c’est bien pour ça que la suite Office de Microsoft reste la référence en entreprise.

Enfin, pourquoi ne pas parler de la liberté des données quand les géants du web vantent les bienfaits du cloud. On nous vend du service tout en gardant nos données qu’on leur donne bien volontiers et sans possibilité de redevenir acteur de ce qui nous appartient. Comment est-ce possible que des défenseurs aguerris du logiciel libre n’est pas pu au moins évoquer ces avantages même s’ils ne sont pas forcément à la portée de tous ?

Bref, une émission malgré tout très instructive pour les connaisseurs puisqu’elle renseigne sur les intentions de l’openwashing tout en mesurant la faible capacité de réaction en face.
Mais avant de vouloir sauver le monde, si on laissait déjà ceux qui sont motivés se sauver eux-mêmes ?

Et si Linux devenait une option comme une autre ?

lundi 9 avril 2018 à 18:11

Tous les ans, on nous fait le coup de l’année du desktop Linux, à tel point que cela en devient un running gag et que plus personne n’y croit, d’autant que la fin du support de XP et le passage forcé à Windows 10 n’ont pas changé grand-chose aux stats, et pourtant…

Ma fréquentation régulière du monde du podcast (dont pâtit quelque peu ce blog), qui n’est pas particulièrement libriste mais relativement versé dans la technologie et l’attiré pour la nouveauté me semble révéler un mouvement de fond : Linux devient une alternative crédible.

Certes, cela fait des années que nous répétons qu’il est désormais plus facile d’installer une distribution généraliste qu’un Windows, qu’il est révolu le temps de compiler ses drivers et qu’un Desktop bien peaufiné n’a rien à envier à iOS, mais comme nous crions entre nous, le temps de diffusion semble bien long.

Tous les gens qui touchent un peu à la technique, à la domotique, aux serveurs ou aiment bidouiller, ont désormais eu l’occasion de se frotter à une distribution et le Raspberry pi fait bien sûr parti de ce mouvement. Alors, les habitudes sont parfois un peu dures à changer et les lignes de commandes continuent à faire peur, mais une fois qu’on a goûté à un système qui marche et que l’on peut configurer comme on le souhaite, on apprécie et on le fait savoir.

Dans la cinquantaine de podcasts non libriste que j’écoute, je compte pas loin d’une dizaine de passages à Linux qui sont évoqués depuis un an. Et pas pour des raisons idéologiques. L’essai ne sera peut-être pas totalement concluant ou ne restera cantonné qu’à une vieille machine pour les enfants, mais peu importe, d’autres que les libristes en parlent comme d’une option aussi valable qu’un autre OS. Sans oublier le nombre croissant d’articles dans la presse informatique généraliste.

Parmi les arguments évoqués par les nouveaux convertis : le ras le bol des mises à jour inopinées, les bugs sur certains matériels, les régressions… et la joie de trouver un tout nouveau système totalement fonctionnel. Cette description en titille de plus en plus qui entrevoient alors la possibilité d’essayer.

Énième effet de mode ? Je ne me fais pas d’illusions, parmi ces essais, il y a une certaine proportion qui n’hésite pas à changer de système comme de chemise et repasseront sous OS propriétaire, car seul l’attrait de la nouveauté les y aura fait goûter. Néanmoins le système sort des fourrés dans une sphère plus grand public.
2018 ne sera probablement toujours pas l’année du desktop Linux, mais peut-être sera-t-elle celle où Linux devient une option non idéologique ?

Un MOOC pour maîtriser le shell

lundi 12 février 2018 à 17:14

Un billet rapide pour signaler un MOOC qui me semble bien intéressant pour ceux qui souhaitent approfondir leurs connaissances de la ligne de commande. Il s’intitule Maîtriser le shell Bash et il est proposé par l’Université de la Réunion sur la plateforme France Université Numérique.

Ce cours donne les bases pour l’utilisation d’un langage de commandes informatiques en l’illustrant avec le shell Bash. Ce shell intègre des structures qui en font un langage de programmation utile pour automatiser des travaux. De plus, le Bash est la version de shell que l’on retrouve de nos jours dans tous les systèmes d’exploitation. C’est pourquoi, aujourd’hui plus qu’hier, maitriser le shell Bash est indispensable pour toute personne désirant contrôler l’appareil sur lequel il est installé.

La semaine dernière était la semaine d’introduction pour présenter le programme et les objectifs, mais le MOOC commence véritablement aujourd’hui et sera étalé sur 4 semaines de travail. Il est donc encore temps de s’inscrire pour se joindre à l’aventure dont voici le programme :

Je dois avouer avoir été un peu refroidi par l’expérience du MOOC Essential Linux qui avait été proposé l’an dernier par son côté fouilli, obsolète et inintéressant pour les novices comme pour les utilisateurs un peu avancés. Ma première impression de ce MOOC est beaucoup plus positive avec des enseignants qui donnent envie et s’adressent directement au bidouilleur qui sommeille en nous.

Il semble donc tout à fait recommandé au débutant sous Linux, à celui qui aime bricoler les Raspberry pi mais aussi à celui qui veut approfondir sa maîtrise de la ligne de commande et apprendre de nouvelles subtilités afin d’améliorer son efficacité.