Siri, Cortana : des bonnes femmes hantent désormais nos téléphones et nos ordinateurs. Ce sont des « assistants personnels intelligents », les produits les plus communs de l’IA (intelligence artificielle), que nous sollicitons en nous adressant à eux en langage naturel, attendant une réponse immédiate et pertinente. Or, cette exigence d’interaction souple et variée implique une adaptation réciproque des agents artificiels et de ceux qui les emploient. En d’autres termes, si nous voulons bénéficier de la continuité linguistique entre l’homme et la machine, il ne suffit pas d’humaniser la machine, il faut encore machiniser l’homme.

Photographie par Roman Cadre

Photographie par Roman Cadre

LE danger de l’intelligence artificielle n’est pas aussi imminent qu’on voudrait le croire. Quoique les résultats de l’IA soient bluffants, rien ne rapproche sa manière de penser de la nôtre. Les marques d’IA comme le test de Turing se limitent à un critère d’imitation : dans un test à l’aveugle, si le juge est incapable de déterminer qui, entre deux interlocuteurs, est la machine, celle-ci est dite « intelligente ». On ne peut pas pour autant en conclure que notre intelligence soit construite suivant les modèles qui sous-tendent ces machines ; il ne s’agit que d’une représentation de la cognition humaine parmi d’autres.

Le danger est plutôt de prendre un modèle pour une réalité incontestable en réduisant notre cognition à un simple programme. Le cas de Raymond Kurzweil, ingénieur et futurologue, dont le travail consiste à « apporter à Google la compréhension du langage naturel », est emblématique de ce court-circuit. Partisan féroce des réseaux de neurones artificiels, il en arrive à confondre notre cognition et son modèle connexionniste. Il propose ainsi de connecter notre néocortex au cloud : quand vient le moment de réfléchir, il suffirait de mettre notre intelligence en réseau afin de la multiplier. Ce cas témoigne d’une incapacité de juger le modèle pour ce qu’il est : une représentation parmi d’autres.

L’homme risque de s’assimiler au modèle qu’il a fabriqué.

Toutefois, comme nous sommes limités dans nos études du langage et de la cognition, les représentations que nous faisons des modèles comportent une tendance à l’auto-réalisation. Nous adoptons des modèles, et oublions que leur existence est source de modifications dans l’objet et la conception que nous nous en faisons. De même que la carte modifie le territoire, la route devenant une ligne, les agglomérations des cercles, de même, nous tombons dans le piège de croire que notre intelligence n’est qu’une capacité de calcul, ce qui est visible dans les sciences cognitives, où les facultés mentales sont des programmes de traitement de l’information, les raisonnements sont des algorithmes et l’apprentissage un système d’auto-ajustement. Voilà le danger : nous ne nous limitons pas à potentialiser notre intelligence grâce à la machine, non, nous adoptons le modèle que nous lui avons fabriqué.

Le développement du Big Data participe de ce glissement de la rationalité moderne attachée à la causalité vers une rationalité de type statistique, lointaine du « pourquoi » et limitée au « comment » immédiat, contingent. Le Big Data ne consiste qu’en un ensemble de méthodes d’analyse statistique appliquées à des quantités de données telles qu’elles ne pourraient pas être traitées par un être humain. Il faut alors avoir recours à la capacité de calcul de la machine, dans l’espoir de savoir les analyser et d’y trouver de précieuses corrélations. Mais corrélation n’est pas causalité : l’efficacité de la modélisation et de ses prédictions se substitue à la recherche de lois générales expliquant le pourquoi des choses.

Un mouvement qui détruit l’unicité de l’être humain. 

Ce glissement vers une rationalité statistique pourrait toutefois nous déranger sur un plan immédiat : si la rationalité par le calcul est mécanisable, c’est qu’on peut ainsi l’étendre à la machine. Il en découle que, dotée de capacité rationnelle, la machine devient agent au même titre que nous. En somme, si nous nous persuadons que la particularité d’un agent et sa condition d’autonomie résident dans sa capacité de raisonner, et que nous réduisons la rationalité à un ensemble de techniques probabilistes et statistiques, ce n’est pas seulement notre exclusivité d’êtres humains sur la pensée que nous perdons, mais notre unicité et notre sens même.

Il suffit de prendre l’exemple des logiciels de traitement de langage naturel, comme les traducteurs automatiques, pour se détromper. Même le produit du meilleur traducteur en ligne est rempli de contresens. Certes, ces logiciels pourront être améliorés. La tendance actuelle est d’élargir les bases de données. Mais est-ce vraiment traduire ? Le contexte, en ce cas, n’est que celui d’une récurrence statistique, alors que la tâche du traducteur est de savoir rendre une réalité étrangère dans un système de références familier. Certes, le résultat est si bon que l’on pourrait s’y méprendre, mais la tâche accomplie n’est pas la même.

Notre Babel à nous est une pile de modèles. Mais le danger de cette Babel contemporaine n’est pas celui de la punition de l’homme coupable d’hybris. La potentialisation immodérée de l’intellect humain par la machine requiert un langage spécifique, et si l’on réduit la rationalité à ce langage, si l’on commence à le considérer comme universel, nous perdrons simplement nos capacités, car nous perdrons au jeu de la machine. Perdre notre autonomie ainsi que notre unicité témoigne d’un techno-messianisme aveugle à la réalité des modèles et de leurs limites. La machinisation réelle de l’homme n’est pas près d’arriver, à moins que nous nous mettions à croire à son avènement.

Maud Barret Bertelloni