Quantcast
Channel: Numérique – Mondes Sociaux
Viewing all articles
Browse latest Browse all 49

Deep Learning, libéralisme et contrôle social

$
0
0

Depuis quelques années, les réseaux de neurones et les applications de deep learning qu’ils rendent possibles sont devenus nos béquilles, nos ombres, nos espions. Au cœur de l’intelligence artificielle, ils reconnaissent notre voix, nos amis dans les albums photos, détectent le piratage de notre carte bleue et conduiront bientôt nos voitures. Comment fonctionnent ces algorithmes magiques ? Une analyse de leur histoire et de leurs fondements montre leur connexion avec les théories économiques néo-libérales.


  • Jensen P., 2021, Deep earnings. Le néolibéralisme au cœur des réseaux de neurones, C&F éditions.


Comment a-t-on pu créer de l’intelligence à partir de transistors, au fonctionnement aussi stupide que des interrupteurs ? Pour comprendre la logique de ces réseaux, je me suis plongé dans l’article fondateur du domaine, publié voici soixante ans par le psychologue Frank Rosenblatt.

Il y décrit le Perceptron, le premier réseau de neurones capable d’apprendre. Et à ma grande surprise, j’ai constaté que Rosenblatt cite, comme source majeure d’inspiration, un économiste, et pas n’importe lequel : Friedrich Hayek, qui obtiendra le prix de la Banque de Suède, dit prix Nobel d’économie, en 1974.

De ce dernier, on connaît surtout ses prises de position extrémistes, pourfendant toute perturbation de l’économie de marché, au point de justifier le coup d’État de Pinochet dans un journal chilien : « Personnellement, je préfère un dictateur libéral à un gouvernement démocratique qui manque de libéralisme ».

Que viennent faire les réseaux de neurones dans cette galère ? Quel peut bien être le lien entre l’idéologie néolibérale et quelques neurones connectés imitant le cerveau ? Intrigué, j’ai creusé la littérature pour comprendre la percée actuelle de ces algorithmes et leur logique profonde. Un petit livre, publié en mai 2021 aux éditions C&F, raconte ces recherches et leurs conclusions.

De la psychologie aux algorithmes

Dans une première partie, je montre le fonctionnement des réseaux de neurones dits « profonds », en remontant à l’inventeur de ces réseaux, un psychologue travaillant pour la Marine États-unienne, Franck Rosenblatt. Celui-ci créa le Perceptron, le premier algorithme capable d’apprendre, et réussit également à attirer l’attention des médias. Le New York Times titrait ainsi : « un psychologue présente l’embryon d’un ordinateur électronique qui devrait pouvoir marcher, parler, voir, écrire, se reproduire et être conscient de son existence ».

Il est vrai que ces algorithmes ont révolutionné des domaines entiers, comme la reconnaissance d’images ou la traduction automatique. Ils dépassent même les humains dans des jeux qu’on pensait trop complexes pour les ordinateurs, comme le go ou les échecs. Certains prétendent même qu’ils peuvent prédire les lieux des prochains crimes ou bien la probabilité de récidive de condamnés. Bref, nous avons créé une intelligence que nous ne comprenons pas, et qui, selon certains, risque de nous dépasser…

Grâce à des exemples concrets et accessibles, j’essaie de montrer en quoi ces algorithmes se différencient des approches formelles habituelles, celles de la physique et ses équations par exemple, en reconnaissant une certaine complexité du monde, et comment ils tentent d’intégrer cette complexité pour mieux maîtriser le monde.

Ainsi, il n’est pas facile de détecter un chat dans une image, car on ne sait pas expliciter des règles claires qui permettraient à un ordinateur de l’identifier, du type : « si un animal à deux oreilles pointues, des moustaches… alors c’est un chat ». Du coup, il faut créer un algorithme plus complexe, capable de générer par lui-même, en apprenant à partir de millions d’exemples d’images de chats, les règles très complexes qui permettent de l’identifier à partir des pixels de l’image.

Mais il ne faut pas être dupe des discours triomphalistes. Pour apprendre, ils ont besoin de bien plus d’énergie et d’exemples que nous. Il n’est pas non plus la peine de fantasmer sur la possibilité qu’ils échappent à notre contrôle et nous dominent : leur pouvoir de nuisance provient plutôt de leur scrupuleuse obéissance.

Notamment lorsqu’ils sont monopolisés par les grands groupes industriels et deviennent des « armes de destruction mathématique », pénalisant souvent les plus pauvres, comme l’a montré Cathy O’Neil dans « Algorithmes : la bombe à retardement ». De plus, l’opacité intrinsèque d’algorithmes basés sur des millions de paramètres rend difficile l’interprétation des résultats et la détermination des limites de leurs prédictions, ce qui est pourtant essentiel dans les domaines où notre sécurité est en jeu, comme la conduite automatique.

Plutôt que « intelligence artificielle », il serait plus juste d’appeler ce domaine « automatisation cognitive » utilisant des « algorithmes auto-apprenants ». D’abord, car l’intelligence humaine est associée au jugement, au choix de moyens pour un objectif que nous nous donnons, alors que l’objectif est imposé de l’extérieur aux ordinateurs. Les machines s’adaptent bien progressivement à leur environnement, mais selon un processus que le philosophe Gilbert Simondon rapproche du dressage, qu’il distingue de l’apprentissage.

Le premier « aboutit à une conduite de plus en plus stéréotypée, et à une liaison de plus en plus étroite avec un milieu », alors que le deuxième enrichit la palette de comportements disponibles et comporte des « conversions ». Ces dernières traduisent la « capacité d’être soi-même un des termes du problème que l’on a à résoudre », la capacité de se mettre en question soi-même, que la machine ne possède pas.

Pour celle-ci, le signal est la différence entre le but poursuivi et le résultat effectivement atteint, qui adapte la machine par diminution de cet écart. Pour les humains, le signal est « une dissymétrie entre deux finalités, l’une réalisée sous forme de structure, l’autre immanente à un ensemble d’informations encore énigmatiques et pourtant valorisées ». Autrement dit, le signal est la différence entre ce que je suis et ce que j’aspire à être, ou ce que l’on me fait être et que je refuse d’être.

Réseaux et marchés

Mais comment expliquer que Rosenblatt cite un économiste, ce personnage fascinant qu’est Friedrich von Hayek, Nobel en 1974 et fondateur du néolibéralisme ? Dans « l’ordre sensoriel », le livre de psychologie théorique cité par Rosenblatt, Hayek avance que chacun de nous développe une carte du monde spécifique, en fonction de ses propres expériences, sous la forme de connexions entre neurones. On retrouve donc la vision « connexionniste » et cybernétique du cerveau qui a inspiré Rosenblatt.

Pour Hayek, notre connaissance est donc tacite, difficile à formaliser et communiquer. De plus, poursuit-il, dans nos sociétés modernes, il existe une « division sociale de la connaissance ». Nous n’avons accès qu’à une toute petite fraction de la connaissance éparpillée dans les différents pays, disciplines scientifiques ou domaines techniques. Cette double fragmentation de la connaissance rend l’économie néo-classique et la planification centralisée de la société peu pertinentes.

Hayek refonde l’ensemble de l’économie autour des idées de concurrence et de marchés, capables d’utiliser au mieux ces connaissances éparpillées notamment en générant « spontanément » des prix qui transportent l’information. Pour lui, le lien entre libéralisme et réseaux de neurones est profond, car les deux s’appuient sur un ordre spontané pour dompter un monde irrémédiablement complexe : « dans les deux cas nous avons affaire à un phénomène complexe dans lequel il faut utiliser de la connaissance extrêmement distribuée. Le point essentiel est que chaque membre (neurone, acheteur, vendeur) est induit à faire ce qui globalement est bénéfique pour le système. Chaque membre peut être utilisé pour servir des besoins qu’il ignore totalement ».

Réseaux et marchés postulent que pour contrôler un monde complexe, il ne faut pas décider trop vite de ce que serait sa bonne représentation. Il est plus efficace de construire un dispositif capable de s’imbiber de cette complexité pour faire émerger une représentation approchée, qui nous assurera une certaine maîtrise.

Pour identifier des objets complexes (chiens, piétons) dans des images, il ne faut pas tenter de définir à l’avance leurs caractéristiques ; pour coordonner l’économie, il ne faut pas tenter d’optimiser des préférences supposées connues. Cela nous conduirait à laisser de côté trop d’information, celle qu’on ne sait pas expliciter. Il vaut mieux fixer un objectif et laisser les neurones s’imbiber du monde via l’apprentissage ; les marchés créer des prix qui guideront les choix des agents économiques.

Mais cette vision commune aux marchés et aux réseaux ne fait pas forcément de ces derniers des alliés du néolibéralisme. Leur puissance peut être mise au service de toute entité moderniste centralisée, capable de rassembler des millions de données et profiter du travail de ces neurones obéissant à l’objectif imposé. Ils pourraient nous aider à mieux gérer le quotidien (gestion des appareils, des énergies…), notre santé (détecter les cancers de peau…) et mille autres domaines qui restent à inventer.

Mais ils permettront sans aucun doute aux États totalitaires de décupler leur contrôle des populations. Cela est d’autant plus inquiétant que, pour certains, la transition écologique pourrait légitimer ce contrôle, afin de limiter les émissions de carbone ou de polluants.

Que faire ?

Que faire, face à la catastrophe annoncée ? Deux pistes me semblent pouvoir être explorées : tenter de se débrancher de la machine moderniste, pour éviter la surveillance et contrer l’épuisement du monde, ou, à l’inverse, tenter de récupérer les outils numériques, en les adaptant, pour amplifier nos capacités de régulation globales, tout en respectant la complexité et la diversité des individus.

Cette piste avait commencé à être explorée par l’un des fondateurs de la cybernétique, Stafford Beer, dans un livre prophétique paru en 1974, Designing Freedom. Il reste à voir si ces projets potentiellement émancipateurs sont réalisables compte tenu de l’énorme impact écologique des techniques numériques.

Ainsi, l’entrainement d’un seul modèle peut émettre autant de carbone que cinq voitures tout au long de leur vie, construction comprise. Une solution semble être d’explorer une nouvelle organisation de la société qui considère marché, planification et communs comme des moyens au service de buts fixés collectivement, et qui sache équilibrer leurs emprises respectives.


  • O’Neil C., 2018, Algorithmes : la bombe à retardement, Les Arènes.
  • Hayek F. A., 1952, The Sensory Order : An Inquiry into the Foundations of Theoretical Psychology, The University of Chicago Press, Chicago.
  • Beer S., 1974, Designing Freedom, CBC Learning Systems, Toronto.

Illustration d’Adèle Huguet pour Mondes Sociaux : tous droits réservés Adèle Huguet. Pour découvrir ses dessins, https://adelehuguet.wordpress.com/

Crédits images en CC :  Flaticon Eucalyp, Freepik, Becris


Viewing all articles
Browse latest Browse all 49

Latest Images

Trending Articles





Latest Images