Variation sur l’intelligence naturelle à partir de deux lectures

M.C. Escher, relativity (1953)

La sociologue Céline Mounier, chercheuse à l’Institut Charles Cros, nous envoie cette réflexion sur les mythes étrangleurs contemporains du transhumanisme, issue de ses lectures de novembre :

“Ce billet se présente comme une double note de lecture d’un essai, Le mythe de la singularité, par Jean-Gabriel Ganascia, et d’un roman, L’invention des corps, par Pierre Ducrozet. Le premier poursuit des recherches dans le cadre d’un projet de recherche appelé EthicAA (Éthique et agents autonomes). Le second est un roman à suspens sur fond d’histoire du web, où les anciens du web assistent à ses transformations dans une certaine torpeur. Dans ce qui suit, je propose une lecture parallèle des deux livres, en italique quand je serai dans le roman.

En 2014, Stephen Hawking nous mettait en garde contre des conséquences irréversibles de l’intelligence artificielle, suivi par d’autres scientifiques. C’est que les facultés des machines deviendraient telles qu’elles pourraient nous échapper. Elles sauraient construire des connaissances par induction et faire des liens avec des données entreposées ici et là, sur des clouds. Apparaîtraient prochainement des cyber-organismes, des hommes augmentés, avec notamment des capteurs branchés à des neurones moteurs et des consciences téléchargées sur des machines. La singularité technologique, ce serait celle de l’arrivée parmi nous, pauvres humains à l’intelligence naturelle ordinaire, des cyborgs. Jean-Michel Ganascia emploie le terme singularité par analogie avec ce qu’est une singularité mathématique, un point critique. La date butoir de cela est sans cesse repoussée.

Alvaro, d’un des personnages principaux de L’invention des corps, découvre « … la nouvelle révolution en cours, qui est celle de l’homme elle-même. Internet ne modifie pas la communication. Internet modifie l’homme. Nous travaillons au sein de ce complexe, à la fois sur le corps, le réseau et les nanotechnologies : tout cela fait partie de la grande convergence qui approche ». Alvaro était professeur d’informatique jusqu’à ce qu’il fut contraint de fuir son pays.   

Où en sommes-nous vraiment ? Il y a la dite « loi de Moore » en ce qui concerne les micro-processeurs et avec le nuage, les clouds, nous disposons de grandes quantités de stockage qui sont de moins en moins coûteuses. De là à imaginer de ces deux croissances une loi universelle de l’évolution, il n’y a qu’un pas. Pourtant, rien n’assure que le rythme des inventions passées se reproduira dans l’avenir. La réalisation de processeur nécessite une taille minimum de la matière et on assiste à un ralentissement de la miniaturisation.

« Nous roulerons bientôt tous en Google Car, nous traverserons le globe avec l’Hyperloop, ce train magnétique qui nous propulsera à 1200 kilomètres-heure, nous partirons vivre sur Mars. Et nous repousserons la dernière frontière de l’Ouest : nous vaincrons la mort. » La connaissance progresse dans le domaine du vieillissement des cellules. Adèle est une chercheuse à Strasbourg. C’est le second personnage principal du roman. Elle travaille sur les cellules souches. Avaro propose ses services en informatique une fois arrivé en Californie, mais on lui propose en Californie de devenir cobaye. Cela lui donne la rage et en même temps, il a perdu ses illusions. Adèle s’envole pour San-Francisco avec ceci en tête : « L’idée du Cube est la suivante : trouver une solution au vieillissement. Les cellules souches vont nous y aider. Vous aurez toute liberté de manœuvre, rien à voir avec ce que vous avez en France. » Quelque temps plus tard, Adèle examine Alvaro.

Le fonctionnement du cerveau de l’homme est éloigné de celui de ces phénomènes physiques, il y a une barrière entre la physique et la biologie. Ni l’accroissement de la puissance de calcul, ni la capacité de stockage ne produisent automatiquement de l’intelligence. 

Le terme d’intelligence artificielle a été inventé par Alan Turing. Il a évoqué le rôle central que devrait prendre l’apprentissage automatique dans deux articles écrits en 1948 et 1950. Les chercheurs en intelligence artificielle visaient alors à simuler sur des ordinateurs les différentes capacités cognitives humaines et animales. Ils partaient du principe selon lequel il serait possible de décomposer l’intelligence en éléments qu’on pourrait reproduire sur ordinateur. Mais voilà, tout le travail de décomposition de l’intelligence en ses différentes facettes, puis de simulation de chacune de ces facettes, reste à faire. La simulation tient aux algorithmes et à des formalismes de représentation des connaissances. Elle ne vient pas de la puissance des calculs même s’ils aident bien parce que permettent des mises en œuvre informatiques qu’on ne pouvait pas espérer sans la puissance de calcul. Nous savons que l’intelligence se manifeste sous des jours variés. Par exemple, des activités comme la lecture mobilisent de nombreuses facultés différentes.

Adèle tente d’expliquer, une fois installée en Californie, que le corps humain n’est pas seulement une incroyable machine même si on peut remplacer des organes, même si on sait fabriquer un œil bionique, même si émettre des faisceaux lumineux qui activent certains neurones à distance. Malgré cela en effet, le corps humain est beaucoup plus mystérieux.

Alan Turing écrivait que pour fabriquer des machines pensantes, disons simulant des comportements pensants, il faudrait qu’elles possèdent un grand nombre de connaissance sur le monde qui nous environne. Le transfert des connaissances de bon sens aux machines est fastidieux et infini. De ce fait, il fallait faut selon lui doter les machines de capacités à apprendre, autrement dit, d’acquérir elles-mêmes des compétences, des savoirs et des savoir-faire à partir d’observations sur le monde extérieur, sur leur place dans ce monde et sur leur comportement. Beaucoup d’approches ont été explorées. Certaines s’inspirent de la psychologie, d’autres de la neurologie, d’autres encore de l’étude du fonctionnement de certaines communautés animales. C’est ainsi que sont nées des techniques qui s’appellent « réseaux de neurones formels », « algorithmes génétiques », « apprentissage profond », etc.

Mais à quoi ça nous servirait de nous relier à des machines ? demande Adèle. Elle dit que le web nous a déjà bien transformés en ne nous obligeant plus à avoir des armoires pleines de livres. De son côté, un des fondateurs du web regarde les transformations du web. Il trouve que ce qui se passe est admirable et détestable. « Tout ce pour quoi j’ai lutté, cette communauté libre où la pensée se construirait collectivement, où tout serait accessible mais où l’intime demeurerait à jamais hors d’atteinte, tout cela est mort. »

Il y a ces techniques d’un côté, et, de l’autre, on est en mesure d’amasser des quantités de données énormes. Des capteurs, on peut en mettre partout pour une foultitude de mesures. Des gazouillis, il y en a masse. Des requêtes sur les moteurs de recherche aussi. Sans compter tous nos déplacements comptés, nos données de sommeil, physiologie, etc. Tout ça forme des big data, des « grosses données ». Cet amoncellement crée du vertige. C’est que ces données, on sait les exploiter avec les outils cités, ceux-là et d’autres. Pour savoir si nous avons raison d’avoir peur que les décisions des machines n’échappent aux hommes, revenons sur ces outils.

Ils relèvent de trois modalités : l’apprentissage dit «supervisé » (il y a un professeur qui instruit), celui dit « non supervisé » (il n’y a pas de professeur)  et « par renforcement » (il y a un professeur vieille école qui donne des bons points et qui punit). Le premier type et le troisième type fonctionnent bien. Dans les deux cas, la question essentielle est : qui instruit et qui punit ? Mais dans les deux cas, les machines acquièrent de l’autonomie au sens technique, pas au sens philosophique. Les machines restent soumises aux catégories et aux finalités imposées par ceux qui ont annoté les exemples utilisés pendant la phase d’apprentissage. Par renforcement, c’est celui qui configure l’algorithme d’apprentissage qui choisit le critère à optimiser. Quant aux techniques d’apprentissage non supervisées, elles n’ont pas encore acquis la maturité qui leur procurerait la capacité à inventer des concepts neufs.

Adèle explique que ce n’est pas parce qu’on fabrique un organe à partir de cellules souches qu’il n’y aura pas de rejet de l’organe, tout simplement parce qu’il a poussé à l’extérieur, disons dans un extérieur et qu’il y a des choses de la nature qu’on ne sait pas modéliser et reproduire.

Le programme défini en 1955 était : « L’étude doit se fonder sur la conjecture selon laquelle chaque aspect de l’apprentissage ou de toute autre caractéristique de l’intelligence pourrait être décrit si précisément qu’une machine pourrait être fabriquée pour la simuler. » Il n’y avait pas d’intention démiurgique au départ. Mais voilà qu’est venue la notion d’intelligence artificielle forte. Et alors, là où on insistait sur la décomposition de l’intelligence humaine en fonctions élémentaires, on insiste désormais sur la recomposition pour produire une nouvelle chose, une nouvelle conscience. Et nous voilà dans la science-fiction. On assiste alors à un phénomène de pseudomorphose de l’intelligence intellectuelle. Scientifiquement, c’est une autre histoire ! Ces tenants de la pseudomorphose, on les retrouve dans différentes institutions transhumanistes. L’idée là, c’est que la nature est mal faite et qu’on, nous pauvre humains naturels, méritons bien quelque réparation.

Une alarme résonne. Alvaro, humain naturel, ne s’est pas laissé arraisonner à un rêve fou. Il fuit avec Adèle.

Nous vivons toujours dans le règne de l’imprévisibilité. Les seules lois mathématiques et de la physique ne nous permettent pas de prédire la météorologie par exemple. Pour représenter les choses on utilise des modèles. Modèle et modestie, c’est la même racine. La seule multiplication des observations ne suffit pas à étayer un modèle. Il ne faut pas confondre corrélation et causalité. On ne peut pas explorer toutes les combinaisons de paramètres pour établir d’éventuelles causalités simplement parce que c’est prohibitif quand leur nombre croît et la quantité de données aussi. Sans compter que l’anticipation modifie les comportements. Tout cela limite la portée des prévisions.

Les fondateurs du web veulent tenter un grand coup. Il faut créer davantage de Zones d’Autonomie Temporaire, des espaces éphémères de liberté, des poches de résistance, quand bien même le monde est tout cartographié. Ils décident d’écrire un Manifeste. Le lecteur le voit prendre forme au fil des pages.

Edward Munch, “le soleil” (1910)

Il faut bien distinguer possibilité, probabilité et plausibilité. Probabilité vient de preuve, il y a de l’accointance avec le vrai. Possible, c’est susceptible de venir, rien n’interdit, rien n’assure. Plausible, ça a la même racine qu’applaudir, il y a quelque chose de populaire là-dedans. Les partisans de la singularité technologique sont dans le plausible. Le réchauffement de la planète est probable, la singularité est plausible.

Les fondateurs du web avancent sur leur plan de résistance. « Les détails du plan, nous en débattrons une fois que nous serons tous réunis. Nous vous attendons. Faisons de cette réunion une fête immense, un grand feud de joie. Faisons date ». Les deux fuyards sont dans une Zone d’Autonomie Temporaire.

GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et NATU (Netflix, Airbnb, Testa, Uber), bref, les géants du web, assurent la promotion de la singularité technologique. Il y a de l’hubris là-dedans, songeons cette maxime de Google, «making the world a better place ». Cela cacherait du désarroi : alors que les grands capitaines d’industrie d’antan imprimaient une marque personnelle à leur entreprise et au monde, aujourd’hui les patrons des grandes entreprises seraient contraints à une forme inédite d’humilité : ils écoutent les utilisateurs, créent avec eux, ils les sollicitent, puis profilent, ils cherchent à connaître leurs intentions. L’organisation est ainsi cyclique. D’une certaine manière, les industriels se soumettent aux humeurs d’une opinion publique, façon d’avouer qu’ils ne maîtrisent plus les évolutions ? Bref, les empires industriels seraient fragiles.  Mais ce serait oublier que ces entreprises aspirent à construire une nouvelle société. Des choses échappent aux États que maîtrisent ces entreprises : la biométrie, l’état civil, le chiffrement, la blockchain et battre monnaie, le cadastre, l’instruction.

Finalement, le mythe de la singularité est un formidable détourneur d’attention.

Adèle et Alvaro sont en cavale.  C’est celle d’un informaticien génial et d’une biologiste aguerrie qui retrouvent leur animalité. « Il s’agit pour eux de refaire tout le chemin en sens inverse pour retrouver l’agilité, la puissance, l’aisance perdues. (…) Ils auront bien le temps ensuite, (…), de relier l’animal à la société. »

Et je ne raconte pas la fin du roman, ni toute l’histoire d’Adèle et Alvaro ! Quand même pas ! Pour moi, cette lecture parallèle donne une belle place à notre animalité d’humain et à notre intelligence naturelle. “

Commentaires