PROJET AUTOBLOG


InternetActu.net

Site original : InternetActu.net

⇐ retour index

Mise à jour

Mise à jour de la base de données, veuillez patienter...

Bonnes vacances !

vendredi 28 juillet 2017 à 16:00

Après cette dernière semaine de salve de publications, InternetActu.net part se mettre au vert et vous donne rendez-vous à la rentrée.

Bonnes vacances et à bientôt !

Admission post-bac, cas d’école des algorithmes publics ?

vendredi 28 juillet 2017 à 07:00

Admission Post-Bac (APB) est chaque année le passage obligé pour près de 800 000 lycéens qui souhaitent poursuivre des études supérieures. Ce dispositif national qui distribue les élèves dans les formations supérieures qu’ils ont sélectionnées génère chaque année auprès des futurs étudiants et de leurs familles inquiétudes et angoisses légitimes, tant la formation supérieure concentre les attentes de réussite dans un monde devenu toujours plus compétitif. Force est pourtant de reconnaître que, malgré les critiques nourries que le système rencontre, l’infrastructure robuste d’APB fait relativement bien ce qu’on lui demande de faire (ne vous énervez pas tout de suite !).

Par son ampleur, par le nombre de personnes calculées par ce traitement algorithmique annuel, APB fait figure de cas d’école des défis que les algorithmes posent à la conduite de l’action publique. Reste que s’il est un modèle, il est aussi perfectible. Comment rendre le système plus compréhensible à l’ensemble des acteurs concernés ? Comment intégrer en amont les exigences de transparence et de redevabilité (accountability) qu’on attend de pareil système ? Comment conjuguer l’efficacité et l’équité qu’on en attend ?

Tels étaient quelques-uns des enjeux qui ont conduit Etalab et la Fing – éditeur d’InternetActu.net – à l’organisation le 28 juin dernier d’une journée d’étude afin d’initier une discussion autour d’APB. Cette journée faisait suite à la remise par Etalab d’un rapport sur les conditions d’ouverture du code d’APB qui devrait être effectif d’ici la fin de l’année. Un rapport dans lequel la Fing – via son groupe de travail NosSystèmes (que je co-anime avec Thierry Marcou) – a formulé, en conclusion, un ensemble de recommandations (.pdf) pour rendre APB plus intelligible et améliorer le dialogue entre usagers et concepteurs de cette plateforme. Des conclusions qui s’appuient sur une grille de lecture des systèmes techniques formulant des pistes d’innovation s’adressant à tout type de plateformes intégrant des calculateurs et des algorithmes.

À l’heure où APB cristallise à lui seul toutes les difficultés de l’éducation nationale, comme s’il en était à la fois la cause et l’unique responsable, nous avons voulu initier une discussion sur ses capacités comme sur ses limites. Pour cela, outre des séances d’ateliers et de discussions, nous avions convié plusieurs intervenants à nous expliquer APB en ses forces et limites. Tentons donc de comprendre avec eux, APB, modèle emblématique des inquiétudes légitimes et des incompréhensions manifestes autour des boites noires algorithmiques et de leurs effets !

APB, l’apparieur procédural

Bernard Koehret est professeur émérite à l’Institut national polytechnique (INP) de Toulouse. Il est LE concepteur d’APB. Et c’est à celui qui a vécu de l’intérieur toutes les évolutions d’APB que nous avons demandé d’en raconter l’histoire (voir sa présentation). À l’image de son logiciel, Bernard Koehret est aussi procédural qu’un algorithme. Tout a commencé en 2001, quand il a répondu à une demande du ministère de l’Éducation nationale pour créer un site national de candidature pour les classes préparatoires aux grandes écoles (CPGE). L’enjeu de la demande était de créer un système informatique avec un souci de transparence et de lisibilité pour optimiser le recrutement dans les classes préparatoires et limiter le nombre de places vacantes. En 2003, « Admission-Prepa » était accessible sur le web. « Les écoles ont vite compris l’intérêt d’une plateforme nationale », leur permettant de mieux gérer les effectifs notamment. Petit à petit, d’autres formations se sont ajoutées, comme les prépas intégrées des formations d’ingénieurs. Certaines académies, comme Paris, disposaient d’un système pour faciliter le recrutement des étudiants. En 2005, l’Académie de Nantes a demandé à l’INP de créer un système pour proposer aux étudiants de postuler à toutes les formations post-bac de l’Académie, « Nantes Post-Bac ». Pour la première fois, on quittait des formations sélectives pour des licences non sélectives, souligne Bernard Koehret, pointant par là le fait que l’intégration de deux logiques différentes par nature n’était pas si évidente. « Petit à petit, des Académies se sont agrégées à ce système et en 2009, APB était appliquée dans les 30 Académies sur décision du Ministère ».


Image : Bernard Koehret photographié par Yann Caradec.

Après avoir rappelé qu’APB concernait quasiment tous les étudiants à la recherche d’une formation en première année dans le supérieur, qu’il permettait d’accéder à plus de 10 000 formations, des licences aux BTS, IUT, DUT, classes préparatoires aux grandes écoles, et même de plus en plus d’écoles d’art, d’ingénieurs ou de commerce… son fondateur explique que chaque candidat y est invité à faire des voeux. Jusqu’à 24, avec un maximum de 12 formations par famille de formation (les familles signifiant les genres de formation comme les licences ou les BTS, etc.). En moyenne, les candidats font 7,6 voeux.

APB fonctionne selon un calendrier national contraint, très procédural, explique son fondateur, avec différentes phases permettant d’adapter la demande à l’offre. Les élèves doivent déposer leur candidature entre le 20 janvier et le 20 mars. Ils peuvent changer l’ordre de leurs choix jusqu’au 31 mai. À cette date, les formations sélectives doivent fournir les critères de classement des candidats, c’est-à-dire classer les dossiers reçus en fonction de critères pédagogiques, sans qu’ils connaissent l’ordre des préférences établies par les candidats. Le 8 juin, APB rend ses propositions. Chaque candidat dispose de 5 jours pour répondre à la proposition qui lui est faite. « Il n’en est fait qu’une seule, « la meilleure possible » selon l’ordre de ses voeux », assure Bernard Koehret – mais aussi selon les places disponibles, l’ordre des voeux de tous les autres candidats et tous les critères que prend en compte le système. Le candidat a le choix entre plusieurs réponses selon le vœu qu’il a obtenues : un oui définitif, un oui mais (j’espère mieux, notamment s’il est en attente sur un voeu mieux classé) ; un non, mais (je ne risque de rien avoir) et une démission (c’est-à-dire qu’il indique qu’il a obtenu ce qu’il voulait hors APB). Quelque 60 000 candidats sont démissionnés de manière automatique lors de cette première phase (malgré relances par e-mails et SMS). Ce n’est pas tant que les candidats s’en moquent, beaucoup sont des candidats qui sont pris dans une école par exemple. 60 % des candidats obtiennent leur premier voeu et souvent font un Oui définitif, assure l’ingénieur. Sur les 3 phases (2 autres phases de « matching » sont lancées plus tard, pour ceux qui n’ont pas été contentés par la première phase), 80 % des candidats vont obtenir leur premier vœu ou l’un des 3 premiers voeux.

En 2017, il y a eu 808 000 inscrits sur APB, c’est-à-dire 808 000 élèves qui ont indiqué au moins un voeu, dont 607 000 élèves de Terminale rappelle Bernard Koehret. Le 8 juin, 653 000 ont reçu une proposition (dont 507 000 élèves de Terminale). Depuis, si tous n’avaient pas reçu encore une réponse après la seconde phase d’appariement, comme le souligne le site dédié du Parisien, et malgré les alarmes légitimes générées, l’Education Nationale, effectivement, parvient chaque année à caser tout le monde, même si bien sûr, tout le monde ne parvient pas à obtenir la formation souhaitée, du fait des trop fortes demandes et du manque de place, avant tout.

« Dans le système actuel, APB, on cherche l’efficacité, d’où le fait de formuler la meilleure proposition possible pour chaque candidat depuis sa liste de voeux ordonnés », en tenant compte du nombre de places que propose chaque formation (en fait, les établissements proposent souvent plus de places pour anticiper les démissions qu’il y aura à chaque phase d’APB). Tout l’enjeu est d’arriver à tenir compte à la fois des formations sélectives et des formations non sélectives. Pour les inscriptions en licences, l’algorithme fait priorité aux candidats de l’Académie, comme l’y oblige la loi, prenant également en compte les préférences des candidats et leur situation de famille (notamment le fait d’être boursier). Le tri aléatoire, si décrié, n’est pas le fait d’APB, mais de la réglementation, souligne le père d’APB. Il faut comprendre que si 1000 candidats de l’Académie mettent en voeux 1 une formation où il n’y a que 250 places, peu d’autres solutions s’offrent au système. Pourtant, pointe très justement Bernard Keohret, le problème n’est pas tant APB que le manque de place ou la trop forte demande de certaines formations. Le tirage au sort relève d’un choix de société qui dépasse celui qui assure la maîtrise d’oeuvre du système. « Quelqu’un qui a une mention très bien et qui est refusé quelque part du fait du tirage au sort, cela pose effectivement un problème ».

« La grande difficulté pour les candidats », estime son concepteur, « reste d’ordonner ses voeux », qui invite les candidats à la plus parfaite sincérité, dans cet ordonnancement.

La présentation de Bernard Koehret est mesurée, prudente, fonctionnelle. Elle décrit les contraintes d’un système, son ampleur. Quoiqu’on en dise, elle souligne sa relative robustesse : l’essentiel des candidats trouvant une formation. Bien sûr, chaque année, on en mesure les imperfections. Celles-ci sont certainement plus nombreuses que ne le reconnaît son concepteur. Derrière le côté très procédural d’APB, qui demande aux élèves de faire des choix clairs, sans stratégie, on voit bien que la réalité n’est pas aussi simple. Que le premier voeu, auquel chacun aspire, ne concerne qu’un candidat sur six. Et que sous principe d’un égalitarisme très républicain, qui serait dans l’idéal parfait, APB n’est pas si égalitaire qu’il y paraît.

Existe-t-il un algorithme idéal ?

Julien Grenet est directeur adjoint de l’Institut des politiques publiques et professeur à l’École d’économie de Paris. Cet économiste est un spécialiste notamment des systèmes d’affectation, comme APB ou Affelnet, l’algorithme qui affecte les lycéens en lycée.

Depuis le milieu des années 2000, explique-t-il (voir sa présentation), il y a eu une profonde transformation des modalités d’affectation des élèves dans les établissements d’enseignement, comme ça a été le cas également pour la gestion des enseignants et des personnels de l’éducation. Partout, on a adopté des procédures centralisées et automatisées, avec l’adoption d’Affelnet au lycée et d’APB dans l’enseignement supérieur. Plutôt que de demander aux élèves de s’inscrire directement dans les établissements, la France, comme beaucoup d’autres pays, a opté pour des systèmes centralisés.

La présentation de Julien Grenet.

Ces systèmes, que l’on trouve également en Australie, en Belgique, au Chili, en Espagne… ont 3 caractéristiques communes : les élèves doivent faire des voeux d’inscription ; le système doit avoir des critères de priorité pour départager les candidats ; et enfin, ils nécessitent d’utiliser des algorithmes d’appariements pour mettre en relation les 2 côtés du marché, les élèves avec les formations.


Image : Julien Grenet à l’photographié par Yann Caradec.

À l’origine, rappelle le chercheur, l’adoption a surtout été motivée par une simplification et une rationalisation de gestion. Avant ces systèmes, chaque élève candidatait à une université, ce qui posait des problèmes quand ils ne venaient pas et ne prévenaient pas, car il était difficile de connaître les effectifs réels et adapter l’offre à la demande. Dans d’autres pays, comme le Chili, l’adoption d’un système centralisé a eu surtout pour motivation de limiter la corruption et de favoriser la transparence. En Norvège, la motivation avait pour objectif d’améliorer l’efficacité pour mieux faire se marier les aptitudes des candidats avec les prérequis des formations. Là-bas, on prend en compte les résultats scolaires pour opérer le classement (si les comparaisons internationales vous intéressent, signalons également l’article du Président de l’université Paris Descartes, Frédéric Dardel, qui revenait il y a peu sur les systèmes mis en place en Europe). Enfin, d’autres objectifs ont émergé encore. En France et en Belgique notamment, on a intégré un objectif de mixité sociale, notamment dans le secondaire, pour faciliter l’accès à certaines formations d’élèves d’origine modeste. Les élèves boursiers parisiens ont forcément leur premier voeu dans Affelnet. Au collège à Paris, la prise en compte des critères sociaux vise à rééquilibrer la composition sociale des collèges, qui est très ségréguée dans la capitale.

En France, les algorithmes ont mauvaise presse : on parle de casse-tête, d’usine à gaz, de jeu de dupes, de loterie… on dénonce le climat anxiogène que génèrent ces « boites noires »… Cette critique est en partie justifiée. Certains algorithmes ont parfois de mauvaises propriétés. « Mais le problème principal est moins les algorithmes que l’opacité et la complexité de certaines procédures », souligne le chercheur. « Dans l’enseignement supérieur, faire des voeux éclairés n’est pas à la portée de tous ». L’information et l’accompagnement à l’orientation des étudiants sont loin d’être également distribués. Enfin, les critères de priorités utilisés ne sont que les traductions techniques de choix politiques faits en amont, comme le tirage au sort, si reproché à APB. En première année de médecine, le taux d’échec est de 80 % et des élèves avec une mention très bien ne peuvent pas y accéder du fait du tirage au sort ! Pour Julien Grenet, on s’abrite là derrière l’opacité technique des algorithmes pour refuser de se confronter à une difficulté d’ordre politique.

Tous les systèmes d’affectation reposent sur un ensemble de procédures consistant à recueillir la capacité d’accueil des établissements et formations, à recueillir les voeux des élèves, à définir les règles pour prioriser et enfin à lancer l’algorithme d’affectation pour apparier les élèves avec les formations. La difficulté bien souvent repose sur les règles pour prioriser qui traduisent des objectifs politiques. Que fait-on quand on a une place pour deux candidats ? Que prend-on en compte ? Les résultats scolaires ? La distance ? Les critères sociaux ? La fratrie ?… Tous ces critères peuvent avoir une influence sur les résultats, même si l’algorithme tente de satisfaire au mieux les préférences des élèves en respectant les règles de priorité.

« Existe-t-il un algorithme idéal ? », interroge Julien Grenet. Le problème est que les algorithmes doivent respecter plusieurs propriétés : l’efficacité (c’est-à-dire le respect des préférences : il ne doit pas être possible de proposer un meilleur choix à un élève sans que cela affecte négativement un autre élève) ; l’équité (c’est-à-dire un critère légal : aucun élève ne peut se voir refuser une admission alors qu’il a une priorité plus élevée qu’un autre admis dans cette école) ; et la non-manipulabilité (on demande aux candidats d’être sincères dans leurs choix, ce qui a aussi pour vertu d’être une consigne simple). Le problème est que ces 3 critères ne sont pas mutuellement compatibles. « Il n’existe pas d’algorithmes qui satisfassent les 3 critères dans toutes les situations possibles. Mais certains compromis optimaux sont possibles ». Et le chercheur de distinguer plusieurs algorithmes. Certains sont très manipulables, comme l’algorithme de Boston, qui est l’un des plus couramment utilisés. Mais il est également inéquitable et inefficace. Il dissuade les élèves de classer en premier voeu une formation où ils ont peu de chance d’être admis et désavantage les élèves insuffisamment stratèges (même si les stratégies pour lesquelles opter se révèlent très compliquées). Un autre algorithme populaire est « l’algorithme d’acceptation différée » qui est utilisé par Affelnet à Paris notamment. Cet algorithme respecte les priorités, respecte l’équité et favorise la sincérité des choix et donne la satisfaction la plus élevée possible aux élèves.

APB s’inscrit dans ce cadre. C’est une procédure centralisée qui est effectivement chaque année une prouesse technique, rappelle le chercheur. Le système intègre des priorités : pour les filières sélectives, le classement est opéré par les formations elles-mêmes. Ce sont elles qui choisissent leurs étudiants ou les critères nécessaires pour postuler. Pour les filières non sélectives, si la demande est supérieure à l’offre, plusieurs critères entrent en oeuvre : privilégier les candidats de l’Académie (sauf si votre Académie ne propose pas la formation que vous souhaitez prendre) ; prendre en compte le rang relatif du voeu (par rapport aux formations de même type) ; prendre en compte le rang absolu du voeu (par rapport à tous les voeux) et enfin le tirage au sort.

APB ressemble beaucoup à l’algorithme d’acceptation différé, estime le chercheur. Le problème, c’est la prise en compte du rang des voeux comme critère de priorité pour les licences en tension. Pour les élèves, mettre en haut de liste une formation sélective ou une licence en tension fait courir le risque de « perdre sa priorité » sur les licences en tension situées plus loin dans sa liste. En fait, cette prise en compte de l’ordre des voeux pour les licences en tension peut pénaliser les candidats qui ont classé leurs voeux de manière sincère. Les critères de priorité incitent les étudiants à s’autocensurer ce qui limite le tirage au sort, ce qui pose le plus de problèmes dans APB : même s’ils sont encore trop nombreux, les étudiants ont tendance à éviter de s’inscrire dans les filières où l’on tire au sort comme en Paces (première année commune aux études de santé) ou en Staps (licences de sciences et techniques des activités physiques et sportives). Le problème est que ces critères de priorités pénalisent les candidats naïfs au profit d’étudiants mieux informés. L’autre problème est bien sûr la lisibilité de cela : il est difficile de donner des conseils clairs et certains aux candidats dans ces cas de figure.

Pourtant, Julien Grenet l’assure, APB est un système plutôt efficace. On estime que le taux de satisfaction des premiers voeux est très fort – pour autant qu’il soit réellement le vœu préféré des étudiants. Pour l’économiste, « APB est d’abord un symptôme des contradictions de l’enseignement supérieur qui défend un principe de non-sélection en licence, mais qui offre des capacités limitées en terme de places ». Les algorithmes d’affectation centralisée sont très puissants en terme de régulation, car leurs règles de priorité sont transparentes : ils incitent à la sincérité dans les choix et permettent de mettre en oeuvre des objectifs de politique éducative. Le problème demeure la complexité des procédures, le défaut d’information et l’absence de débat de fond sur les critères de priorité. Comme il le soulignait pour L’Étudiant, « quand il y a trop de demandes en licence, qu’a-t-on le droit de prendre en compte comme critères ? ». Pour lui, la solution n’est pas uniquement dans l’augmentation de l’offre, mais plutôt dans une meilleure orientation : « En étant orientés vers des formations mieux adaptées à leur profil, les élèves auraient plus de chances de réussir. » Ainsi que dans une meilleure adéquation entre formation et candidat, c’est-à-dire privilégier certaines filières (faire que les bacs pro et techno soient prioritaires dans les IUT et STS par exemple) ou que certaines formations aient des prérequis qui ne portent pas sur le classement ou les notes, mais sur la formation.

Où porte la ségrégation ?

Leila Frouillou est géographe et chercheuse associée à Géographie-Cités. Elle a soutenu en 2015 une thèse sur les mécanismes de ségrégation scolaire en Ile-de-France à l’entrée en université. Elle se rappelle le lancement de Ravel, l’ancêtre d’APB sur l’Ile-de-France, qui avait pour mission à la fois de recruter des étudiants pour les nouvelles universités d’Évry, Cergy, Saint-Denis… et d’éliminer les campements d’étudiants devant les prestigieuses universités parisiennes à l’époque où l’inscription était décentralisée et où la règle n’était pas le tirage au sort, mais celle du premier arrivé, premier servi !

À l’époque, la sectorisation de Ravel n’était pas celle d’APB, le recrutement en droit de Paris I et Paris VIII n’était pas limité à leur Académie, rappelle-t-elle par une carte. Le lancement d’APB en 2009 a changé les choses. « Si apparemment APB a étendu les filières à l’échelle nationale et propose un libre choix, dans les faits, APB a renforcé la « barrière académique » ». En montrant une carte (page 10 de sa présentation), elle montre que toutes filières confondues, APB a renforcé le recrutement purement académique. Les universités parisiennes n’ont plus recruté au-delà de Paris et St-Denis a recruté également uniquement sur son Académie, ce qui n’était pas le cas avant pour ces deux universités. Le problème, souligne la géographe, c’est que le renforcement de la barrière académique, en empêchant par exemple les étudiants de Seine-Saint-Denis d’accéder aux universités parisiennes, a surtout généré des incompréhensions et des frustrations. Pire, un sentiment de frustration territoriale.

Présentation de Leila Frouillou.

Leila Frouillou donne des exemples de verbatims d’étudiants recueillis pour sa thèse. Ainsi, un étudiant de Bobigny accepté à Paris I sur tirage au sort, réintègre une explication sur le type de Bac qu’il a eu pour tenter de donner un sens à sa chance. D’autres racontent le refus institutionnel à l’inscription du fait qu’ils viennent d’une autre Académie et l’interprètent comme une discrimination territoriale. Des exemples qui montrent combien les choix des voeux sont parfois faits par défaut. Pour la géographe, « il faut entendre l’impact de ces parcours, la démotivation ou la frustration que cela génère ».

« Ce qu’on constate en fait, c’est le développement de stratégies d’évitement, tant par les étudiants que par les formations ». Consistant à développer ou privilégier des doubles licences ou des options rares, voire sélectives. Il y a d’ailleurs de plus en plus de filières sélectives à l’université et nombre d’établissements les utilisent pour générer des formes de classes préparatoires. Et puis, quelques dérogations existent encore : on peut parfois s’inscrire à l’université après la rentrée, en activant des réseaux, des coups de fil… Avec APB, les stratégies d’évitement sont devenues plus complexes, reconnaît la chercheuse. « La procédure d’APB implique de se projeter et de hiérarchiser beaucoup d’information. Bien souvent, les candidats ne voient pas la barrière qui se dresse devant eux. Les étudiants d’Ile-de-France qui souhaitent faire leur droit se projettent à Assas et la Sorbonne », formations prestigieuses, dans un contexte où l’on invite à faire des voeux selon ce qu’on se souhaite de mieux. Et ce d’autant plus que « le système le leur permet, il ne leur livre pas de message de refus. Alors que les plus informés, eux, vont prendre une licence rare ou une double licence pour obtenir ces établissements qu’ils savent ne pas pouvoir avoir autrement. »

En fait, « la production de la liste de voeux est difficile. Tous les élèves ne sont pas égaux devant cette liste. » Certains reçoivent des conseils très personnalisés, d’autres sont laissés à eux-mêmes. Les informations et l’encadrement diffèrent d’un établissement à l’autre, au détriment le plus souvent des établissements et des élèves les plus fragiles. De même, lors des différentes phases, tous les élèves n’ont pas les mêmes stratégies. Des élèves peu assurés scolairement seront rassurés de répondre oui à la première proposition reçue, même si c’est un voeu qui était assez bas dans leur classement de peur de ne pas en obtenir un meilleur ensuite, alors que ça arrive parfois du fait des places qui se libèrent. Ils préfèrent savoir ce qu’ils vont faire l’année prochaine et limiter l’incertitude que de réclamer mieux. « Pour beaucoup, les calculs sont compliqués ».

En fait, souligne la chercheuse, le niveau de formation à APB est très différent selon les lycées où on est scolarisé. Dans les milieux moins politisés, on fait parfois des choix collectifs pour se retrouver tous sur le même campus où à la même licence. Or, la sélection ne marche pas ainsi. « Dans les lycées défavorisés, on vous explique la procédure APB. Alors que dans les lycées les plus favorisés, on met l’accent sur l’orientation. » Dans les meilleurs lycées, le proviseur vérifie les listes des voeux de chaque élève.

Bien sûr, « la question des capacités d’accueil demeure le problème central », surtout que nous connaissons actuellement le haut de la vague de la croissance démographique du nombre de candidats.

« Reste qu’APB conçoit l’orientation comme quelque chose où chaque individu est stratège et rationnel. APB suppose que chacun va prendre la bonne formation par rapport à son parcours. Mais ce n’est pas le cas, notamment dans les milieux les plus populaires. » Beaucoup se projettent dans l’enseignement supérieur, dans leur liste de voeux, selon ce dont ils ont entendu parlé ou ce qu’on fait leurs copains. « L’orientation est un processus inégal », rappelle la chercheuse. Il varie selon les établissements, les services académiques d’information et d’orientation (SAIO), et surtout les capacités des élèves à comprendre le système et ses 10 000 formations. « APB cristallise des tensions, car on a une vision tubulaire des cursus, tout en essayant de limiter les échecs en première année. » C’est cette vision de l’enseignement supérieur qui force à placer chacun dans une filière dont on doit suivre le droit fil de bout en bout qui met beaucoup de pression sur APB, et qui serait beaucoup moins forte si par exemple on pouvait rattraper d’autres filières à la fin du premier semestre. Bref, si le système permettait un peu d’adaptation…

C’est la piste qu’esquisse à nouveau le président de l’université Paris Descartes dans un autre billet qui souligne les gâchis que génère un système très « tubulaire », qui ne permet pas suffisamment de composer des licences « à la carte ».

L’orientation, clef d’APB ?

Muriel Ekovich est responsable de la plateforme Inspire-orientation.org, qui est un dispositif d’orientation développé par Frateli Lab – l’entreprise sociale de l’association Frateli dédiée à la promotion de l’égalité des chances – qui propose aux étudiants d’évaluer leurs capacités et aptitudes pour leur proposer de découvrir des formations adaptées à leurs profils. Le dispositif est augmenté d’une plateforme sociale qui permet de contacter des étudiants qui ont déjà fait ces formations afin de pouvoir interagir avec eux pour mieux préciser ses choix d’orientations. L’ensemble propose une forme de recommandation d’orientation personnalisée, comme l’explique très bien leur vidéo promotionnelle.

Cet outil, développé dans une démarche de recherche-action est encore en développement. Elle a permis d’accompagner quelque 5000 lycéens l’année dernière, mais ne propose pour l’instant que 56 pistes d’études. Tout l’enjeu pour Muriel Ekovich est de développer et d’améliorer sa plateforme, ainsi que d’augmenter le nombre d’étudiants éclaireurs. Quand on constate les difficultés à l’orientation que cristallise APB, on se dit qu’effectivement des outils qui apportent de la diversité, avec des outils un peu plus à la page que des brochures métiers, même en ligne, font partie de l’effort nécessaire pour améliorer le dispositif existant, qui on l’a vu déjà, va bien plus loin que le seul outil d’APB. Inspire-Orientation montre ainsi qu’APB pourrait aussi à l’avenir être une plateforme de plateforme, servant non seulement à permettre aux lycéens de faire leurs choix, mais aussi à les guider vers la formation la plus adaptée à leurs besoins.

APB, un symptôme ?

Au final, on se rend compte qu’APB est un symptôme. Que ce grand outil national qui souhaite traiter tout le monde sur un pied d’égalité peine à remplir cette mission. La faute n’est pas tant à renvoyer à l’outil, certes toujours perfectible. Et ce ne sont pas les 17 000 étudiants qui cette année ne savent toujours pas où ils seront affectés qui diront le contraire. La faute est en grande partie à renvoyer aux politiques publiques. Au manque de place. Et surtout, au gros défaut d’APB, qui est de renvoyer chaque candidat à la solitude de son choix, comme le constatait le médiateur de l’éducation. Si l’éducation nationale fait un grand effort chaque année pour accompagner les lycéens, reste que cet accompagnement semble ne pas être à la hauteur des enjeux.

Pour ma part, l’un des constats qui me frappe, c’est l’immobilisme spatial qu’entérine APB. La sectorisation qui renforce l’importance de son Académie d’appartenance semble contraindre à l’immobilisme spatial et social. On ne peut désormais se déplacer que par le choix de formations sélectives. Cette question de la mobilité spatiale pose aussi celle de la mixité sociale. La composition sociale des universités a-t-elle changé avec APB ? En fait, les stratégies scolaires semblent plus intenses désormais, et APB semble accentuer les discontinuités.

Dans les ateliers qui ont accompagné cette journée, la parole se libère. Plusieurs groupes réfléchissent à l’amélioration d’APB. L’un d’entre eux présente Service-Public.fr et propose d’imaginer sur son modèle une plateforme pour aider les élèves à comprendre APB, à s’orienter, pour répondre à leurs questions avec des professionnels chargés de le faire, pour construire une base de connaissance autour d’APB qui puisse servir à tous les étudiants qui naviguent dans l’océan d’information d’APB. Leur permettant à la fois de connaître leurs droits et les démarches. Le besoin de compréhension tant du fonctionnement que des possibilités d’APB est fort, on le voit chaque année. On a vu également le besoin d’information sur l’orientation, critère d’entrée stratégique pour développer l’équité. Aujourd’hui pourtant, en ligne, on trouve bien plus d’information dans les portails dédiés du Monde.fr, du Parisien ou de L’étudiant que sur le site du ministère de l’Éducation nationale. Aujourd’hui, la médiation autour d’APB est fortement décentralisée : elle repose sur les proviseurs, les professeurs et les SAIO… qui répondent à quelques 800 000 e-mails chaque année. Mais aucune base de connaissance n’est construite de tous ces échanges, qui permettrait à la fois d’en diminuer le volume en rendant l’information disponible et donc d’apporter un traitement plus personnalisé aux demandes.


Image : illustration des ateliers de la journée, via le compte Twitter de la DINSIC.

Certains pointent néanmoins qu’il y a trop d’information. Et que l’information ne suffit pas. « On a beau leur dire qu’il y a très peu de place, ça n’empêche pas les candidatures de se démultiplier », s’exaspère un participant. Effectivement, la hiérarchisation croissante des formations renforce la demande pour « les meilleures » licences. Dans le 93, tout le monde voudrait aller faire son droit à Assas, anticipant les taux d’insertion professionnelle que certaines formations permettent. « Donner des chiffres toujours plus fins, c’est aussi prendre le risque est qu’ils soient mal interprétés. Des boites privées vont proposer de faire de la prédiction facile : donne-moi ta note de math, je te dirais si tu peux postuler à tel ou tel endroit ! Le risque, n’est-il pas de renforcer encore plus la reproduction sociale !

Un autre rappelle que les professeurs, qui sont sensés accompagner les élèves sur APB, sont souvent peu voire pas formés. L’éducation nationale a fait quelques efforts, par exemple avec le site de l’Onisep pour expliquer la filière Staps… Mais ça n’a pas réduit le nombre de candidatures. Un autre s’exclame : « il faut des conseillers d’orientation formés plutôt que de l’information »… Mais ça n’a pas l’air d’être la politique la plus encouragée. « L’essentiel des questions qui arrivent sur APB sont des questions très individuelles, des jeunes qui se posent des questions sur leur orientation même. « Mais APB n’oriente pas ! Au mieux, il met en relation un jeune avec un établissement »

La massification fait également que le public a changé. L’enjeu n’est pas qu’un enjeu d’orientation, c’est aussi aider les jeunes à construire leurs projets. Or, avec plus de 12 000 formations disponibles, comment s’y retrouver ? Qui est capable de comprendre cette complexité ? Mal accompagné, beaucoup de jeunes font de mauvais choix : tout le monde veut faire Staps pour faire du sport, mais ce n’est certainement pas la meilleure option par exemple.

Ce qu’on voit bien, c’est qu’APB est le réceptacle des douleurs de l’éducation nationale. Douleurs légitimes des recalés. Inadéquation entre les espoirs que chacun place dans le système qui permet de choisir la formation de son choix qui génère des attentes immenses… et le désarroi et le sentiment d’abandon de la réalité des résultats, comme s’en désole très justement la professeure Isabelle Barth sur son blog, qui parle même de maltraitance.

APB n’est pourtant que la boite noire qui contient toutes les autres. Sa réforme pour l’instant annoncée du coin des lèvres ne va certainement pas être si simple. Elle risque de favoriser la sélection au détriment de l’équité, en oubliant toujours les perdants de la sélection, comme le rappelait Louise Tourret sur Libé. Demain, les filières en tension demanderont aux étudiants des prérequis. Reste à les définir, comme s’en inquiétaient les doyens d’université. Le risque étant bien sûr de privilégier les notes (pour autant qu’on sache quelle note prendre ? Celle des 2 premiers trimestres ? Celle du bac qui n’est pas passé quand APB est lancé ? Qui décide des critères ? Le ministère ? Les établissements de formation ? Ces critères pourraient-ils être calculés plutôt que décidés, c’est-à-dire calculés depuis les résultats sur 4 ans de tout ceux qui ont réussi la première année de telle licence, montrant par exemple qu’aucun n’a réussi avec moins de 12 en math ou sans un bac techno…). Soit. Pas sûr que le « contrat de réussite étudiant » qui se concocte réponde aux problèmes de place, aux problèmes d’orientation… Et plus encore aux problèmes que génère la hiérarchisation des formations. Ce que montre APB, c’est que le problème n’est pas en haut : les formations de qualité sont toujours là, toujours plus présentes. Le risque des transformations qui s’annoncent est d’oublier ceux qui ne sont pas les meilleurs. Ceux qui n’ont pas les meilleures notes. Ceux qui n’ont pas trouvé leur voie via l’école, ou pas encore. Souvenez-vous. À 18 ans, saviez-vous ce que vous vouliez faire ?

ABP au final est surtout le reflet des dysfonctionnements du système éducatif français. Et il ne parvient pas à lui tout seul à renverser la reproduction sociale. Au contraire.

On ne peut certes pas tout demander à APB. Ce n’est qu’un outil pour marier un étudiant a une formation. On peut dire qu’il le fait relativement bien. C’est plutôt tout le reste qui pêche. L’offre de formation. L’accompagnement à l’orientation. Ce qui est certain, c’est que ce n’est pas en développant la sélection partout, en rendant la méritocratie toujours plus efficace, qu’on créera une société plus libre, égalitaire et fraternelle.

Hubert Guillaud

L’entrainement cérébral est-il efficace ?

jeudi 27 juillet 2017 à 08:10

Peut-on oui ou non entraîner le cerveau à l’aide d’outils numériques ? La question reste très controversée, et ce n’est pas le dernier post de blog du « Neurosceptique », paru sur le site de Discover Magazine (@neuro_skeptic et @discovermag), qui va calmer les esprits.

Le post concerne une étude parue dans le Journal of Neuroscience concernant un des plus fameux logiciels d’amélioration cérébrale, Lumosity. Ce dernier programme est plutôt considéré comme « sérieux », il ne s’agit pas d’un jouet comme Dr Kawashima (cf. notre vieil article « Faut-il exercer son esprit pour en avoir »).

Dans le cadre de cette recherche, 128 jeunes adultes ont été divisés en deux groupes, l’un se consacrant pendant 10 semaines aux activités d’entraînement cérébral de Lumosity, l’autre, le groupe contrôle, étant invité à jouer pendant le même temps à des jeux vidéo en ligne sans aucune prétention médicale.

Avec le temps, le groupe d’utilisateurs Lumosity a fait des progrès dans les exercices proposés par le logiciel (ce qui est un peu normal !). Mais cela a-t-il eu un effet sur les capacités cognitives en général ? C’est là que les résultats se montrent plutôt décevants.

Dans le domaine des fonctions exécutives (les facultés qui nous aident à prendre des décisions et planifier nos actions), aucun des deux groupes n’a semblé faire de progrès notable.

Des tests sur la mémoire de travail, l’attention et les autres aspects de la cognition auraient donné des résultats similaires…

A noter toutefois, précise le Neurosceptique, que cette étude concerne des adultes en bonne santé. Un travail sur des personnes âgées atteintes de déficiences cognitives pourrait donner un résultat différent.

A croire que la question de l’entraînement cérébral ne cesse de reculer à mesure qu’elle avance…

L’IRM pour lire des pensées complexes

mercredi 26 juillet 2017 à 14:00

En 2008, nous présentions les travaux de l’équipe de Marcel Just et Tom Mitchell, du Centre d’imagerie cognitive du cerveau de l’université de Carnegie Mellon, qui avait réussi à démontrer la capacité de l’IRM à lire des pensées simples en analysant les zones cérébrales activées lorsqu’on pense, par exemple, à un objet comme un marteau. Notre article de l’époque se terminait en signalant que les chercheurs allaient maintenant se pencher sur des pensées plus complexes, et par la phrase « réponse dans quelques mois ». Bon, en fait, ça a pris près de 10 ans, mais l’équipe de Just semble effectivement avoir franchi une nouvelle étape, présentée par le site Next Big Future (qui reprend en fait le communiqué de presse de l’université Carnegie-Mellon).

Selon Marcel Just, « l’une des grandes avancées du cerveau humain est la capacité de combiner les concepts individuels en pensées complexes, de penser non seulement à des « bananes », mais aussi à «J’aime manger des bananes en soirée avec mes amis». »

Pour arriver à modéliser de tels concepts, l’équipe a isolé un « alphabet » de 42 structures neurales correspondant à certaines significations sémantiques, comme les notions de « personne, d’environnement, de taille, d’interaction sociale, ou d’action physique ». Chacun de ces concepts étant géré par une partie différente du cerveau.

Ils ont ensuite testé leur méthode sur 240 phrases. Ils ont fait analyser par la machine IRM les 239 premières. Ensuite, ils ont soumis au système une 240e phrase, et ce dernier a analysé les zones cérébrales impliquées dans la formulation de celle-ci et à été en mesure de reconstituer son sens dans 87 % des cas. Pour vérifier la validité de leur travail, les chercheurs ont recommencé le test 240 fois, en laissant à chaque fois de côté une différente 240e phrase à des fins d’analyse par le programme.

Le système a également été capable de procéder à l’envers : en lui soumettant une nouvelle phrase, jamais analysée, il a été en mesure de prédire quelles seraient les zones cérébrales activées si quelqu’un pensait à cette dernière.

Bien entendu, il reste du travail à accomplir. Et l’équipe de Just veut aller encore plus loin, explique-t-il :

« Une prochaine étape pourrait consister à décoder le type général de sujet auquel pense une personne, par exemple la géologie ou le skateboard. Nous sommes sur la bonne voie pour cartographier tous les types de connaissances existant dans le cerveau. »

Où en est la police prédictive ?

mercredi 26 juillet 2017 à 07:00

Lors de la journée d’étude organisée par l’Institut national des hautes études sur la sécurité et la justice, il n’a pas été question que de justice prédictive, comme nous l’avons évoqué dans notre dossier. Il a aussi été question d’un tout autre sujet, celui de la police prédictive.

Sur InternetActu.net nous avons avec constance été très critique envers la police prédictive (voire notamment « Predpol, la prédiction des banalités »). Malgré des annonces d’expérimentations en France, celles-ci sont plutôt restées discrètes, tant sur leurs fonctionnements que sur leurs résultats… Or, au colloque de l’INHESJ, la police et la gendarmerie notamment, avaient été invitées à évoquer les expérimentations qu’elles mènent. Et elles ont pris la parole…

« L’outil reproduit ce qu’on connait déjà »

Le Colonel Philippe Mirabaud commande le groupement de la gendarmerie départementale du Nord. Pour lui, face au manque de moyens, il faut améliorer le ciblage des actions et zones où opérer, et c’est en quoi ces nouveaux outils sont intéressants. Jusqu’à présent, la gendarmerie a surtout été dans une logique statistique pour comprendre la délinquance a posteriori. Si cela permet de rendre compte de l’action des services, si cela peut fournir une aide à la décision, ces outils ne sont pas un moyen de lutte contre la délinquance. Ils ne permettent même pas par exemple de mieux connaître son adversaire… Tout l’enjeu est de comprendre si la logique statistique, l’analyse criminelle, peut permettre d’orienter le travail de la gendarmerie. Le Colonel rappelle que la police et la gendarmerie utilisent déjà de nombreuses bases de données et systèmes d’information, chacun avec leurs finalités. Mais regrette que bien souvent, l’analyse de leur usage n’aille pas plus loin qu’une analyse statistique.

Dans le cadre de ce qui est présenté comme des expérimentations, la gendarmerie a donc revu l’activité de son Service de renseignement criminel à Pontoise, à la fois pour aider les unités de terrain avec un outil d’analyse prédictive pour orienter les décisions opérationnelles et également pour développer des outils d’aide à la résolution des enquêtes. Le Colonel souligne que ces développements ont été accomplis avec des « attentes raisonnables », c’est-à-dire pas très élevées visiblement. L’enjeu semble plus avoir été de déployer une expérimentation pour comprendre le fonctionnement de ces outils que pour asseoir une réforme politique ambitieuse. « On est passé des cartes avec des punaises à des systèmes statistiques qui génèrent des cartes. Et désormais on tente de générer une modélisation depuis des données sur plusieurs années pour tenter de faire un peu d’anticipation ».

Le Colonel précise que plusieurs outils ont été développés en interne, même si tous ne sont pas finalisés. Il projette plusieurs cartes qui montrent les cambriolages puis les vols de véhicules, comparant les cartes produites par le système prédictif à la réalité de la délinquance constatée. « On a des pics en octobre liés au changement d’heure et au fait que la nuit tombe plus tôt ». La prédiction ressemble à une séance de voyance : on constate des évidences.

« L’outil permet d’analyser notre délinquance. Il ne nous dit pas où vont se produire les vols, mais montre que les structures sont différentes : le cambriolage est bien plus concentré dans l’espace et le temps que le vol de véhicule. On est là dans une logique de compréhension et d’organisation. Pas de prédiction ! »

Il montre d’autres cartes provenant d’un autre outil qui sont des cartes de chaleur indiquant les cambriolages pour la semaine à venir. Un système prédictif basé sur les enregistrements des cambriolages sur les 5 dernières années. « C’est encore un travail de R&D. On va les utiliser à partir de septembre pour voir si ça peut permettre de prévoir les tournées des patrouilles sur le terrain. » En Aquitaine, ils utilisent déjà un système similaire et prennent en compte les recommandations du logiciel pour réaliser les patrouilles. Les premiers retours sont que ces outils finalement n’annulent pas la délinquance, mais la repoussent. Un constat qui rappelle celui qu’on adresse à la vidéosurveillance. Reste que pour l’instant, le système fait apparaître des zones à risque qui semblent recouper les observations de terrain.


Image : les points chauds du cambriolage à une semaine sur une carte du département du Nord, qui confirme les observations de la police de terrain. De droite à gauche : Bilel Benbouzid, le commissaire Yves Gallot, le Colonel Mirabaud.

Le Colonel Mirabaud a l’air plus souriant en présentant un autre outil développé par la gendarmerie, AnaCrime. Nous sommes quelques jours après l’incroyable relance de l’affaire Gregory qui semble devoir beaucoup à ce logiciel. Par une analyse des interrelations entre toutes les pièces d’une enquête, le logiciel permettrait de détecter des relations qui n’avaient pas été faites jusqu’alors. « Le logiciel a montré un vrai potentiel sur des affaires complexes ». Il ouvre des perspectives : « nous allons avoir de plus en plus besoin de coordinateurs de données et de renseignements criminels pour exploiter toutes les informations ». En travaillant avec les enquêteurs, le logiciel permet de mieux orienter les questions. Transformer les dossiers en base de données permet d’en tirer une nouvelle analyse.

De retour sur le logiciel de police prédictive, le Colonel est contraint de constater que de grands défis l’attendent encore. Il souligne que pour l’instant, ces outils ne fonctionnent qu’avec des données de la police et de la gendarmerie. Il va falloir donc qu’ils intègrent des données externes : la météo, l’agenda des événements, mais aussi des informations sociologiques. Il va falloir aussi intégrer les activités que réalisent les gendarmes et notamment le circuit des patrouilles. Un autre enjeu concerne la fusion des données. Il explique qu’un des grands problèmes auquel ils sont confrontés, c’est le fait que beaucoup de données dans les bases sont séquentielles. Il voudrait pouvoir par exemple suivre les verbalisations d’un véhicule sur toute la France pour mieux comprendre ses déplacements, comme c’est le cas de véhicules volés. Enfin, reste encore un autre enjeu, le circuit de décision. L’usage pourrait-on dire. Car produire des prédictions c’est très bien, mais comment sont-elles utilisées et intégrées dans les décisions opérationnelles ? Il n’y a pas encore d’interface pour faire se croiser l’expérience et le ressenti des équipes, leur perception du territoire, et les prédictions d’un logiciel.

L’intervention qui suit, celle du commissaire Yves Gallot, chef de la division des systèmes d’information opérationnelle à la direction centrale de la Sécurité publique, vient prolonger celle de son collègue de la gendarmerie. C’est d’ailleurs sur la sollicitation de la gendarmerie que la police est venu compléter les données de l’expérimentation lancée dans l’Oise, précise le commissaire divisionnaire. Un travail qui a donné naissance à « PredVol », une application de police prédictive dédiée à la délinquance commise sur les véhicules. Le logiciel fournit une représentation cartographique du département et pointe des zones de risque selon une prévision à la semaine, à partir d’un historique qui remonte sur 5 ans. Il précise les infractions : vol de voiture, de deux roues ou vol à la roulotte. Celui qui consulte le logiciel a toujours accès à l’évolution dans le temps. Et le logiciel intègre une évaluation entre ce qui a été prédit et les infractions constatées. Les résultats montrent surtout que « l’outil reproduit ce qu’on connaît déjà ». Lancée opérationnellement en septembre 2016, la police et ses partenaires ont fait un premier bilan de l’expérimentation fin février 2017. Le constat est que les périmètres sont parfois trop large et surtout que les calculs ont tendance « à faire ressortir toujours les mêmes spots, les mêmes points chauds aux mêmes endroits ». Pour le dire autrement : les zones dangereuses sont dangereuses ! Magie et profondeur des prédictions !


Image : Predvol présenté par le commissaire Gallot.

Le commissaire Yves Gallot souligne rapidement que d’autres expérimentations sont en cours. Toulouse travaille sur les vols avec violence. Etalab sur les cambriolages. Toujours sur des périmètres limités. Reste qu’Yves Gallot souligne que, comme on l’a entendu dans la justice, les modèles prédictifs ne sont pas transposables à toutes les infractions… Ils marchent beaucoup moins bien pour prédire les atteintes aux personnes par exemple. Comme son collègue de la gendarmerie, il fait le constat que la modélisation n’est pas si simple, notamment pour localiser les choses et pour passer de choses localisées à des zones qui soient opérantes. Plus qu’un outil pour l’État-Major, l’autre difficulté a été de tenter de donner des accès via smartphones pour qu’il puisse être utilisé jusque sur le terrain.

Dommage en tout cas que les représentants de la police et de la gendarmerie soient partis dès leurs interventions terminées. Ils auraient pu constater que leurs interrogations commencent déjà à avoir des réponses. Et que les critiques faites aux systèmes de police prédictive comme PredPol, commencent à être intégrées comme de nouveaux défis par d’autres chercheurs et systèmes.

Que nous apprend la cartographie du crime ?

Le géostatisticien Jean-Luc Besson est le spécialiste de la cartographie criminelle à l’Observatoire national de la délinquance et des réponses pénales. Il est notamment l’auteur d’études sur la criminalité dans le grand Paris (.pdf). Ce spécialiste de l’observation de la criminalité produit des « machines à calculer » (.pdf) : c’est donc assez naturellement qu’il s’intéresse à la transposition des machines statistiques aux outils prédictifs, en travaillant particulièrement sur les questions de géolocalisation que soulèvent ces outils.

Il a ainsi développé un outil pour étudier « les vols avec violence sans arme contre les femmes sur la voie publique à Paris », reprenant et prolongeant visiblement des travaux initiés depuis 2008 (voire par exemple cette présentation .pdf). Il a utilisé des algorithmes du domaine public et a tenté de comprendre comment prévoir le déplacement géographique de la criminalité sur un territoire. Sa modélisation intègre les attributs géographiques et les vulnérabilités du terrain afin de déterminer si certains terrains sont des facteurs aggravants, c’est-à-dire s’ils expliquent l’émergence, la présence et la pérennisation des « hotspots », les lieux où se concentrent les faits (c’est ce qu’on appelle les technologies du risk terrain modeling : la modélisation des terrains de risques).

Jean-Luc Besson prend le temps de nous expliquer comment il découpé Paris en 10 833 cellules de 100 mètres de côté. Chaque cellule est ensuite modélisée selon la densité de ses caractéristiques : présence d’arbres, de friches, de magasins (et quels types), etc. pour voir si ces éléments-là sont influents, c’est-à-dire s’ils participent au facteur de risque… Il a ensuite intégré des données de la préfecture de police sur ce type de fait, comportant plaintes comme interpellations et disposant d’une précision géographique permettant de géocoder les événements et donc de les localiser. Là encore, il a fallu nettoyer les données, comme toutes celles qui n’ont pas de coordonnées géographiques par exemple. Au total, il a rapatrié 4173 faits géocodés sur Paris en 2014. 2073 cellules (soit 19 % des 10 833 cellules qui découpent Paris) contiennent un fait ou plus, montrant, presque par nature, une concentration géographique. Enfin, il a fallu intégrer la temporalité des événements, qui ont montré aussi des phénomènes de concentration des violences sans armes contre les femmes à Paris : entre 17 et 19h les après-midi de semaine, la nuit durant les week-ends avec une autre pointe à l’heure de sortie des boîtes de nuit.


Image : carte des hotspots parisiens concentrant les vols avec violence sans arme contre les femmes sur la voie publique de jour (à gauche) et de nuit (à droite) le week-end.

L’analyse montre surtout la grande régularité des hotspots sur le territoire parisien. Ce type de vol est très concentré à la fois sur certains points du territoire parisien et à certains horaires. L’analyse des attributs géographiques des cellules a permis de pointer 21 facteurs de risque, allant de la présence d’arrêts de bus, de magasins de restauration rapide, de café et de bar, de pharmacie, de guichet de banque, de magasin d’alimentation… mais aussi bien sûr des lieux où sévissent trafic de drogue et prostitution. Et ces différents facteurs s’agencent dans un autre ordre de jour et de nuit. Peut-on pour autant prédire ou prévoir ? Peut-on savoir ou comprendre ce qui marche et ne marche pas en la matière, comme tente de le faire la méta-étude Policing Matrix de l’université George Mason ? Et quand les modèles fonctionnent, comment les expérimenter ?


Image : la carte des risques aggravants significatifs des vols avec violence sans arme contre les femmes sur la voie publique à Paris, le week-end, de nuit. Les terrasses, la prostitution, les bars et le trafic de drogue sont devant les boites de nuit, les magasins d’alimentation et les métros.

Pour Jean-Luc Besson, ces indicateurs permettraient par exemple d’améliorer la prévention en l’adaptant aux endroits les plus dangereux, en permettant aux gens de comprendre les facteurs de risque. Reste que les données demeurent encore très partielles : on ne voit que la criminalité connue. « Si la démarche est scientifique, le résultat ne l’est pas », concède le chercheur. Enfin, ces études pointent très souvent des territoires à haute intensité criminelle qui posent le problème de réponses qui peuvent être facilement discriminatoires. Enfin, ces programmes de police prédictive promettent de rationaliser les forces de police. Si les budgets apprécient cela, c’est moins le cas des services, qui apprécient peu que les machines se substituent à leur expertise. Pour Jean-Luc Besson, il est important de comprendre que ces outils ont des effets directs sur les libertés publiques. Et c’est là une question que la société doit poser avant de se précipiter sur la réponse.

Hunchlab : vers une police prédictive responsable

Jeremy Heffner est data scientist chez Azavea, une « B Corp », une entreprise privée spécialisée dans l’analyse géographique et qui agit pour l’intérêt général. Il est le responsable d’un des principaux projets d’Azavea, Hunchlab (@hunchlab), un outil de police prédictive, concurrent direct de Predpol qui ne s’intéresse pas seulement à la prédiction du crime, mais à comment aider la police à répondre à ces prédictions afin d’apporter non seulement une mesure de la criminalité, mais surtout un effet et évaluer l’impact de ce retour. Le projet ne se définit d’ailleurs pas comme un projet de prédiction du crime, mais comme « un logiciel de gestion de patrouille de police proactif ».

L’enjeu n’est ni de prédire ni de prévoir, car c’est finalement assez simple, souligne Jeremy Heffner en invitant ceux qui développent des systèmes algorithmiques à faire preuve d’un peu plus d’humilité. Tout l’enjeu est plutôt de réussir à créer un système d’aide à la décision avec rétroaction plus solide, permettant de mieux évaluer ce que vous pouvez prédire et ce que vous n’êtes pas capable de prédire et surtout de prendre garde à ses contre-effets.

Comme nombre de systèmes, Hunchlab agrège des données hétérogènes et les traduit en carte, en points chauds. Le système produit des cibles ou missions selon un code couleur pour le type de crime. Tout l’enjeu est alors de proposer aux patrouilles de se rendre dans ces points chauds selon des modalités différentes, soit d’une manière visible, soit pas, pour une certaine durée. Hunchlab enregistre enfin les retours des patrouilles : les policiers doivent répondre à une série de questions pour évaluer leur travail comme le système – du type faut-il vous envoyer à cet endroit plus souvent, moins souvent… Contrairement à PredPol qui favorise le surcontrôle aux points chauds, Hunchlab utilise un modèle probabiliste pour faire varier les patrouilles et les encourager à patrouiller sans vraiment surestimer une zone sur une autre, pour ne pas transformer la réaction de la police à l’information qu’ils reçoivent.

Hunchlab cherche à réduire la nuisance globale de la criminalité en utilisant des données, en les analysant, en sélectionnant des localisations, en proposant aux patrouilles des manières d’y répondre et en tentant d’apprendre de ces réponses. Hunchlab utilise des données sur la criminalité, des données sur le terrain pour mieux le comprendre (emplacements de bars, de commerce, de stations de métro, etc. selon le principe de modélisation de terrains de risque que nous avons vu plus haut), des données sur le temps allant de la météo aux événements organisés dans la ville, et également des éléments calculés comme l’heure, le mois, les phases de la lune… Et le système tente de connecter toutes ces données au crime (voire cette vidéo explicative du fonctionnement de Hunchlab).

Comme ailleurs, Hunchlab produit un jeu de données pour entrainer le système, utilisant les premières années pour faire des prévisions et les années suivantes pour les vérifier et les améliorer. Le système produit des cartes de prédiction du crime selon le type de crime (vol, agression, cambriolage…), mais sans donner aux policiers de niveaux de risques alors que le système en dispose. Pourquoi ? Parce que la prédiction n’est pas le plus important, insiste Heffner. Le problème des logiciels de ce type, c’est qu’ils ont tendance à envoyer les policiers uniquement là où le risque calculé est le plus grand ce qui influe sur le comportement des policiers. Pour remédier à cela, Hunchlab introduit de l’aléatoire. Cette idée leur est venue des officiers eux-mêmes et de leur manière de travailler. Cela permet de regarder ce qu’il se passe quand on n’envoie pas de policiers dans un endroit qui est évalué à risque. Cela permet surtout aux policiers de ne pas sur-interpréter ce qu’ils constatent, comme de s’en prendre à n’importe qui parce qu’ils sont dans une zone où le risque de crime est fort. Enfin, Hunchlab observe aussi les tactiques que choisissent les policiers, leur présente des options et tente également d’évaluer leurs effets. « Quand on donne aux acteurs des choix dans un système, vous obtenez un bien meilleur engagement », rappelle Heffner, avec la force de l’évidence. En fait, ces systèmes ne cessent de faire des erreurs et c’est pourquoi il est important d’intégrer une rétroaction permanente afin de continuer à tenter de les réduire.

Pour Jemery Heffner, « plus vous développez un outil puissant, plus vous avez un impact possible, plus vous devez agir avec humilité ». Et le chercheur de rappeler que les modèles font des erreurs. C’est pourquoi il faut expliquer les choses, comment ça marche, à partir de quoi, comment ça se trompe… Beaucoup d’entreprises se cachent derrière leurs secrets d’affaires. « Je ne comprends pas pourquoi elles font ça », notamment parce que l’investissement dans l’algorithme est bien souvent la part la plus faible de l’investissement par rapport à l’ensemble du coût du système déployé. De plus, tout le monde utilise peu ou prou les techniques, des techniques assez communes. Le secret est un moyen de tromper le public, estime Heffner. Il est non seulement nécessaire d’expliquer comment fonctionne le système, mais il faut également expliquer comment le système transforme des calculs en décisions. « Les utilisateurs ont besoin d’avoir confiance en ces outils ».

Par rapport à PredPol, Hunchlab produit un autre renversement : il est transparent sur les données qu’il utilise, ses théories, ses modèles, ses algorithmes… Hunchlab n’a pas de secrets commerciaux. « La décision et l’allocation des politiques publiques doivent s’expliquer. On doit pouvoir les utiliser devant une Cour de justice. Les gens doivent avoir envie de les utiliser. » Et le spécialiste de critiquer ainsi les programmes qui calculent le risque de récidive aux États-Unis, comme ceux qu’évoquaient Angèle Christin. Si les prévenus qui ont un score supérieur à 7 présentent un risque, alors que ce passe-t-il pour celui qui obtient un 6,9 ou un 7,1 ? « Ces scores sont des estimations ! », rappelle le spécialiste. Fragiles par nature et construits sur des agrégats d’incertitudes.

Enfin, il faut rappeler que les hommes eux-mêmes font des erreurs. Même quand on leur montre une information, bien souvent, ils l’interprètent mal. Quand on leur montre une cellule avec une possibilité de crime, les officiers ne sont pas informés du niveau de risque, c’est-à-dire qu’ils ne savent pas si c’est une zone avec un risque très élevé ou une zone sélectionnée aléatoirement. Le but en fait, est de ne pas influer sur leur comportement. Ne pas faire que quand ils arrivent à un endroit, ils pensent que tout le monde est un criminel. En cachant certaines informations aux policiers, on espère apporter un meilleur résultat à l’ensemble du système, éviter les débordements, éviter l’optimisation pour l’optimisation.

« Dans la police prédictive, la prédiction n’est pas le plus important », conclut Heffner. L’enjeu c’est de construire des systèmes pour tenter de faire au mieux ce qu’ils doivent faire. Et dans ce cadre, plus que de faire des prédictions sans failles, il faut avant tout faire des estimations explicables, permettre d’avoir des décisions interprétables… c’est-à-dire aider les hommes à interagir avec la machine, pas à se faire dicter leur conduite par celle-ci.

 « L’opacité n’est pas insurmontable »

Laissons le mot de la fin au sociologue Bilel Benbouzid, spécialiste de ces sujets et organisateur de cette journée d’étude à l’INHESJ. Comment peut-on faire que la police statistique soit un acteur de la prévention, elle qui a surtout servi à mesurer le crime ? Les boîtes noires algorithmiques nous confrontent à des systèmes technique qu’on a du mal à interpréter, à comprendre. Pourtant, « la question de l’opacité n’est pas insurmontable ». Les sociologues des objets techniques ont toujours été confrontés à des objets opaques. Et tout l’enjeu, comme nous y invitait Bruno Latour, c’est de prendre le pli de ces techniques pour révéler leur somptueuse opacité.

Bill Benbouzid souligne la difficulté à enquêter sur ces systèmes de police prédictive. Malgré ses efforts, par exemple, il n’a jamais eu accès aux concepteurs de Predpol. Mais il a remonté le fil de leurs travaux pour comprendre que l’algorithme de Predpol qui prédit l’intensité du risque provenait d’un laboratoire de recherche de Chambéry dédié à la sismologie, comme il l’expliquait dans cet article pour la Vie des Idées. Comme pour les répliques des tremblements de terre, Predpol mesure la concentration et la contagion du crime pour tenter d’en définir l’intensité du risque. Mais si pour prédire les répliques, la contagion est importante, est-ce un critère valable pour le crime ? Et si c’est le cas, comment en rendre compte ? Comment pondérer les valeurs produites par ces systèmes pour qu’elles ne deviennent pas performatives, comme tente de le faire Hunchlab ?

La question de la régulation de ces systèmes est également un enjeu. Aujourd’hui, beaucoup considèrent que ces systèmes s’inscrivent dans un régime un peu spécial lié au terrorisme. Pour certains, ces systèmes entérinent la fin du droit, puisqu’ils sont régulés de l’intérieur.

Bilel Benbouzid s’est intéressé à la controverse en légitimité de ces systèmes. « Dans quelle mesure la police peut-elle contrôler une personne dans la rue à partir d’information provenant d’un algorithme ? » Pour le professeur de droit américain Chistopher Slobogin, la jurisprudence qui encadre la pratique policière aux États-Unis exige pour faire une saisie ou une perquisition une « cause probable », validée par le juge avec un mandat de perquisition par exemple. Dans les années 70, pour permettre à la police de faire du contrôle d’identité dans la rue, la jurisprudence va permettre aux officiers de se baser sur une simple « suspicion raisonnable ». Pour Slobogin, la jurisprudence du contrôle de rue repose sur un principe de proportionnalité qui pourrait s’adapter à la police algorithmique : « plus la cause probable est robuste, plus je peux être intrusif et inversement, plus la suspicion raisonnable est faible moins je peux être intrusif ». Pour Slobogin, ce principe de proportionnalité pourrait tout à fait s’appliquer à la régulation des algorithmes de police prédictive. Pour lui, il suffit que la justice demande aux producteurs d’algorithmes de s’assurer d’une représentation très rigoureuse des groupes sociaux impactés, c’est-à-dire de veiller à ne pas produire de biais.

D’autres juristes, comme l’Américain Andrew Ferguson – qui publie prochainement un livre sur le sujet – a comparé, par analogie, le raisonnement prédictif à celui d’un informateur. Pour les cours de justice, en tout cas, les informations d’un indic sont souvent suffisantes pour être retenues comme cause probable ou suspicion raisonnable. « Peut-on comparer un algorithme à un informateur ? » Pas tout à fait, estime Ferguson, car un indic raisonne souvent de manière individualisé, alors qu’un algorithme raisonne de manière générale. Sauf que bien souvent, la police a besoin de croiser l’information d’un informateur pour intervenir. Ferguson tente également une analogie avec le profilage, qu’utilisent déjà les officiers quand ils décident d’intervenir en constatant un comportement qui leur semble suspect. Pour Ferguson, la prédiction permet bien souvent de renforcer le profilage en situation.

Une jurisprudence américaine a déterminé qu’une zone à haut risque établie par un algorithme pouvait être considérée comme une suspicion raisonnable pour autoriser le contrôle policier. Pour autant qu’on sache juridiquement ce qu’est une zone à haut risque… Ce qu’aucune jurisprudence ne s’est encore penchée à faire. Pour Ferguson, ces outils permettent de gagner en précision. Il propose d’ailleurs de certifier les algorithmes comme la justice a certifié la qualité des chiens renifleurs.

D’autres juristes estiment que ni la cause probable ni la suspicion raisonnable ne suffisent. Le soupçon doit être individualisé c’est-à-dire qu’il doit désigner une personne ou une action pour opérer. Pour la professeure de droit à l’université d’Arizona, Jane Bambauer, dans l’un de ses articles intitulé « Tracas », l’enjeu consiste à minimiser le taux de tracas, et c’est justement ce que permettent ces outils. Les cours de justice, rappelle la juriste, interdisent la quantification de la cause probable et de la suspicion raisonnable. C’est-à-dire qu’ils ne peuvent être un argument probabiliste, car le soupçon doit être individualisé. Jane Bambauer rappelle néanmoins que les juristes ont très mal interprété cela. Pour eux, il y a une différence entre le soupçon individuel et général. Pour Bambauer, ces deux formes de soupçons ne doivent pas s’opposer : le soupçon que produit un algorithme prolonge celui du policier devant un individu. Pour elle, la jurisprudence montre l’importance de minimiser le taux de tracas. Cela signifie que ces outils doivent être utilisés proportionnellement au taux de tracas ou aux taux d’erreurs qu’ils génèrent. Ainsi on a longtemps interdit des interventions sur la base d’une information quantifiée, comme de faire une descente sur des campus parce qu’on est sûr de trouver de la drogue dans 60 % des chambres. Mais on voit bien qu’il pourrait demain en être autrement… L’enjeu n’est bien sûr pas de contrôler l’ensemble des dortoirs sur la base d’une information quantifiée. Mais peut-être faudrait-il regarder quel serait le taux de tracas raisonnable ? Et réintroduire du hasard, de l’aléatoire (comme le fait Hunchlab), pour générer une forme d’équité…

Faut-il introduire plus de transparence et de gouvernance ? C’est ce que proposent Slobogin comme Ferguson finalement, mais la transparence ne permettra pas à elle seule de répondre à l’opacité. « Peut-être que la puissance du machine learning exige de répondre par des principes semblables à ceux qu’utilisent le machine learning, c’est-à-dire des principes quantifiés ?», suggère le sociologue, à l’image du taux de tracas ou de l’aléatoire.

Ce que montrent ces controverses, c’est combien la question de la légitimité de ces outils elle-même est encore à défricher. Mieux déterminer leur légitimité, mieux l’encadrer, permettra certainement de mieux border leur utilisation, afin qu’elle ne se fasse pas seulement au profit d’une pure optimisation.

Hubert Guillaud

Notre dossier « Vers la justice analytique » :