Derniers commentaires


Accueil > PHILOSOPHIE > Algorithmes et personnalité humaine

Algorithmes et personnalité humaine


mardi 3 septembre 2024









Envoyer à un ami - Imprimer


Notre monde est de plus en plus dominé par le numérique, et cela en inquiète beaucoup. Mais ma question ne sera pas ici la numérisation comme telle. En effet, transformer un message quelconque en une suite de nombres (un des sens de numériser) ne change en soi pas les choses et leur signification : tout poème peut être numérisé puis restitué dans le texte d’origine. De même un tableau ou la Bible. Ce qui importe est leur traitement ; c’est-à-dire le fonctionnement des algorithmes, et notamment de l’IA (Intelligence artificielle). Dans quelle mesure leur fonctionnement change-t-il le traitement même de la personne (ou des groupes humains) du fait qu’elle est appréhendée au moyen de chiffres puis saisie par des procédés divers mais essentiellement probabilistes ?

Certains désirent ou craignent l’émergence d’une intelligence qui serait supérieure à l’intelligence humaine. Ce qui repose comme on le verra sur une perspective fausse, car le mot intelligence recouvre dans les deux cas des réalités complétement différentes. Mais justement un des dangers est là : la réduction de l’intelligence humaine ou son conditionnement.

On mettra ici plus particulièrement l’accent sur un cas spécifique de numérisation et d’IA, celui des algorithmes utilisés par les géants du web : réseaux sociaux comme Facebook, mais aussi Google, Instagram et Amazon, ou encore Netflix (films), Spotify (musique) ou YouTube (vidéos). Dans ces cas, il s’agit en un sens d’utiliser la statistique pour gérer l’individualité, mais pour un but précis, qui est d’ordre marchand. Ce faisant on ne gère pas l’individualité de façon neutre. Il y a inévitablement une philosophie sous-jacente, et pas seulement commerciale. D’ailleurs le commercial est déjà une forme de philosophie, qui façonne la société.

Une telle évolution a supposé d’une part la tendance historique (depuis deux siècles) au rôle croissant de la statistique. Et d’autre part, les outils et la puissance de calcul de l’IA. Nous commencerons par rappeler le point de départ, qui est la statistique elle-même, pour évoquer ensuite la question générale de l’IA, et en venir enfin au cas spécifique des réseaux sociaux et du web.

L’expansion de la statistique et sa corrélation avec l’individualisme

Olivier Rey montre les développements de la statistique au cours du XIXe siècle, au début au sein de ce qu’on appellera ensuite les sciences sociales, commençant par un pur exercice de dénombrement. Puis s’est développée petit à petit sa théorisation mathématique. Plus significatif est son développement prodigieux vers un rôle scientifique, notamment en physique avec les analyses sur les gaz de Boltzmann, puis sa fonction centrale dans la physique quantique et la mécanique ondulatoire. Parallèlement bien sûr, le rôle de la statistique dans la connaissance de l’homme et de la société a pris lui-même une extension gigantesque.

Rey fait un lien direct entre ceci et l’évolution de la société démocratique, à partir de la Révolution française. Car le principe d’égalité et l’ouverture de toutes les voies à tous implique aussi à la fois une compétition maximale, et une difficulté à se distinguer et même à se définir. Mais d’un autre côté, poursuit-il, l’idée, d’origine chrétienne, que la personne humaine est unique, et donc la recherche de la singularité, se maintiennent dans une société incapable de le satisfaire. « C’est l’incommensurabilité radicale des singularités qui conduit au calcul ; c’est le principe selon lequel personne n’est là pour faire nombre qui finit par appeler le règne du nombre ». Et il ajoute : « Néanmoins la subjectivité renâcle, se plaint. Elle reproche à la statistique d’ignorer les nuances du réel, de se montrer inattentive au détail des situations, d’être ‘impersonnelle’. D’un côté on lui demande de rendre compte des faits de façon objective et impartiale, de l’autre on lui fait grief de son insensibilité, de s’en tenir à ce qui se mesure et, ce faisant, de laisser échapper l’essentiel ».

Ces remarques éclairent singulièrement cet usage particulièrement innovant et puissant des nombres qu’on appelle Intelligence Artificielle ou IA.

Rappel de données de base sur l’IA

De quoi parle-t-on ?

Comme on sait, le terme intelligence est compris de multiples façons. Dans les milieux traitant de l’IA, et de façon cohérente avec le matérialisme diffus de nos sociétés, on la comprend comme une capacité à résoudre des problèmes ou au minimum à agir par rapport à des situations. D’où ce terme d’ ‘intelligence artificielle’. Comprise, ainsi l’intelligence humaine peut être dépassée. On parle même de la possibilité pour l’IA d’atteindre un jour un niveau de ‘superintelligence’, comportant une intelligence générale très supérieure à celle de l’homme, et notamment la capacité de construire elle-même des machines encore supérieures.

Je ne me situe pas dans cette ligne. Tant du point de vue de la philosophie classique que de la foi chrétienne, on ne peut réduire l’esprit et notamment l’intelligence à la solution technique de problèmes. Dans cette perspective, on peut même envisager que des machines aient une capacité de traitement très supérieure à celle de l’homme, sans conclure que ce dernier est inférieur. C’est que l’esprit humain possède une supériorité ontologique radicale de par sa capacité à penser consciemment, ainsi que par sa liberté et sa créativité ; c’est en outre un être relationnel. En bref, c’est une personne. Et une telle personne, créée à l’image de Dieu, est seule ouverte à l’infini de la transcendance divine. Quant à l’intelligence, c’est une capacité à voir le vrai, le beau et le bien, dont un élément clef est la contemplation, qui sert bien sûr aussi à trouver des solutions au besoin, c’est-à-dire à agencer le réel, mais ce n’est qu’une de ses applications.

Concrètement, l’IA est une machine qui soit explore systématiquement des solutions préenregistrées, soit traite des masses de données à l’aide d’algorithmes basés sur des calculs de probabilité, enrichis de techniques d’apprentissage. Cela lui permet de battre des êtres humains aux échecs ou au go, souvent par des moyens non prévus à l’avance par les concepteurs. Mais si l’exploration systématique ou la combinaison probabiliste de données permettent de définir une stratégie gagnante au jeu, c’est par une puissance extraordinaire d’exploration de la combinatoire de données déterminées, par une capacité de calcul : il n’y a pas là de pensée. Encore moins une capacité à déceler le sens possible des choses et leur signification morale, en termes de bien et de mal. Et encore moins d’agir librement en engageant sa responsabilité.

Mais bien entendu cette extraordinaire puissance peut bouleverser nos existences, même sans aller jusqu’à la ‘superintelligence’ en supposant que cela ait un sens. Les services que l’IA rend sont déjà considérables (moteur de recherche, traduction, diagnostics de tout type etc., sans parler de l’IA générative de type ChatGPT) et ils le seront plus encore à l’avenir. Mais inversement, on peut craindre le développement d’une capacité considérablement supérieure de contrôle social, comme en Chine. Ou le risque de pertes d’emplois massives. Ou le développement d’armements terrifiants. Etc.

Ou encore, plus profondément, une réduction de l’humain lui-même, compris à travers l’IA et par là selon une idée fausse de l’intelligence humaine et de la personne.

Les questions posées

Le caractère essentiellement statistique de toute IA implique un triple questionnement. Sur les données utilisées d’abord, qui peuvent être insuffisamment fiables ou contenir des biais implicites, et relever de la vie privée des personnes concernées. De toute façon, par nature même, des données numérisées ne reflètent qu’une partie du réel.

Un questionnement sur les algorithmes ensuite, dont comme on l’a dit on en connaît pas exactement le cheminement et qui peuvent conduire à des résultats surprenants ou inattendus. La littérature évoque ici les cas de discrimination, par exemple raciale, soit présente dans les données, soit induite par l’algorithme par corrélation (avec la délinquance, la pauvreté, ou la résidence géographique par exemple). Mais l’IA ne le verra pas, car elle ne pense pas.

Ces deux questionnements posent à leur tour des questions centrales de responsabilisation face à ces effets indésirables. Or une telle responsabilité ne peut échoir qu’à des êtres humains, qui ne peuvent se cacher derrière la machine. Cette responsabilité doit donc être clairement identifiée, là où elle se situe, au niveau humain.

Il est donc essentiel de réfléchir, en général et cas par cas, sur l’encadrement possible de l’IA, tant au niveau de l’éthique de ceux qui sont en charge de la créer et de l’utiliser, et éventuellement, à celui de la réglementation. Mais en l’occurrence cela implique surtout en l’espèce une démarche originale, allant au-delà des intentions des acteurs, et qui vise le contrôle de son fonctionnement et de ses effets, c’est-à-dire ce que produisent effectivement les algorithmes, au-delà du dessin initial du système et de ses concepteurs. Cela suppose de façon vitale des tests réguliers et des études d’impact. Trop souvent en effet l’IA apparaît comme une ‘boîte noire’.

Le pape François a bien vu ces questions, dans plusieurs interventions depuis 9 mois.

Algorithmes et Internet

Venons-en maintenant aux algorithmes utilisés par les nouveaux géants qui dominent Internet, souvent de façon monopoliste ou presque.

Les effets de tromperie

Un premier élément nouveau est les capacités nouvelles de circulation d’informations tendancieuses ou manipulées. Ou la possibilité technique de créer des messages (des images) trompeuses de vérité, mais artificiellement : on fera une photo compromettante de quelqu’un (ou un film) criants de vérité, mais faux. Certes, cela retrouve une possibilité ancienne : voir les gravures diffamatoires visant Marie-Antoinette juste avant la Révolution. Mais la tromperie est massivement surmultipliée tant dans sa facilité de production, sa crédibilité apparente, que dans sa diffusion instantanée. Et notamment dans la création de mouvements de foule immenses et apparemment incontrôlés (viralité). Ces problèmes sont bien connus et ont conduit les opérateurs concernés à mettre en place des formes de filtrage ou de censure, utilisant eux aussi des algorithmes. Ce qui n’est pas sans poser à son tour des problèmes considérables : les uns critiquent l’efficacité médiocre de ce genre de filtrage ; les autres au contraire critiquent la censure, assez arbitraire, ou s’inspirant d’une idéologie latente.

Les algorithmes de recommandation des réseaux sociaux

Mais ce qui est plus intrinsèque au fonctionnement de ces systèmes est la manière dont ils conçoivent le produit présenté au client. Comme on sait, les réseaux sociaux (Facebook, Instagram, TikTok et autres) ou à leur façon les moteurs de recherche (type Google), mais aussi les sociétés commerciales de type Amazon ont pour cela une fonction vitale à assurer : le classement des informations à fournir. Prenons les réseaux sociaux : cela vise le déroulé de ce qui va être présenté à celui qui les regarde. En un sens, c’est une nécessité : une présentation purement chronologique serait neutre, mais peu satisfaisante ; une pêche aléatoire dans l’océan des possibles et notamment en l’espèce des producteurs de posts serait frustrante et peu productive ; la limitation aux vrais amis un peu étroite. D’une certaine façon, un algorithme de recommandation a donc son sens. Mais les algorithmes de nos réseaux vont bien au-delà d’un rôle de recommandation purement affinitaire et bienveillante.

Il s’agit en effet de sociétés commerciales, vivant de publicité. Facebook et les autres utilisent des probabilités de regard pour gagner de l’argent avec de la publicité. De même Google d’ailleurs, selon des modalités un peu différentes. Il est donc vital pour eux de maximiser le temps de présence et d’attention. Cela conduit notamment à favoriser la viralité, car ce qui est beaucoup vu a toutes chances de l’être plus encore. On va donc le plus possible marquer les posts, puis les classer selon un calcul de la probabilité qu’ils ont d’attirer l’attention. Cela comporte donc une certaine individualisation, fonction de ce que le système a pu percevoir des centres d’intérêt de celui qui regarde ; mais elle est intéressée et orientée. Même dans le cas de Google, qui est un outil de recherche, le but n’est donc pas la vérité, mais une forme de performativité : faire en sorte que le classement optimise le flux de regards, et par là le flux publicitaire. Cela suppose bien sûr de donner un certain rôle à la réalité des sources, mais le plus important n’est pas leur justesse intrinsèque.

Certes, le conditionnement pouvait exister autrefois. Mais il passait la plupart du temps par des interactions avec des personnes, et non pas par la rationalisation intéressée d’un système, fondée sur des corrélations à base numérique. Lequel, point essentiel ici, possède en outre une opacité presque intrinsèque. Si vous aviez à faire à de la propagande marxiste, vous pouviez étudier le marxisme et la littérature correspondante. Là ce n’est pas accessible.

A cela s’ajoute le comportement des utilisateurs eux-mêmes, et notamment de ceux qui veulent faire passer leur message et pour cela tentent d’influencer les algorithmes. Comme les systèmes trient ce qui leur apparaît pertinent selon leur jeu de critères, la question pour les porteurs de message est alors d’offrir à l’algorithme ce qui lui parle le plus. Non seulement donc l’algorithme n’est pas neutre, mais il suscite une transformation de la matière première qu’il utilise : ce que trie Google n’est pas une matière première neutre : elle est dans une certaine mesure organisée pour être sélectionnée par lui. Mais cela ne correspond pas nécessairement à ses propres objectifs, et il doit donc en permanence s’adapter, et il réarrange constamment son algorithme. Or on ne connait pas plus ces changements que le système de départ – d’autant que cela permettrait aux utilisateurs de s’adapter eux aussi. D’où d’ailleurs un argument supplémentaire de ces entreprises pour justifier leur opacité.

Et cela finit par influencer même la production artistique, même en musique, peinture ou photo, car pour percer, il faut vite être perçu par le système.

Par ailleurs, la capacité des utilisateurs (clients) d’échapper à ce conditionnement est pour l’essentiel illusoire : d’abord, personne ne lit les conditions d’utilisation ; ensuite et surtout, l’utilité du produit (l’échange de données sur soi contre un usage gratuit du système) est bien trop grande. Et donc on est soumis à une forme hyperbolique de ce que fait déjà le marketing. Le libéral pur a peu d’objection à faire à cela ; il regarde le seul consentement de l’individu, supposé sans interférence. Mais il est clair que ce choix se fait sans véritable appréciation de ce que contient réellement ce qui est offert. Et la régulation du contenu est difficile à définir, surtout si les gens désirent vraiment quelque chose. L’action du consommateur ne suffit donc pas : il faut des régulations. Il faudrait donc un regard extérieur capable d’analyser les biais réels du système. D’abord de transparence. Puis de responsabilité.

Effet sur l’individualité

C’est que l’effet sur la personne est considérable et met directement en jeu la question de l’individualité. Le rôle culturel des réseaux sociaux est désormais majeur, mais il est difficile de le considérer comme globalement positif, notamment sur les jeunes générations (Tiktok, Instagram etc.). En particulier, les algorithmes tendent en pratique à replier chacun sur un modèle statistique moyen et par là uniformisant. Cela peut se faire au niveau général du public, mais plus fréquemment niche par niche, aboutissant à ce que les utilisateurs se parquent dans de petits mondes homogènes, consensuels et mutuellement hermétiques, voire hostiles. En tout cas, cela joue un rôle indéniable dans la polarisation des opinions, et leur antagonisation. En outre, les choix faits par l’algorithme peuvent susciter à la longue un sentiment d’insignifiance, puisqu’on n’a plus la stimulation de la recherche ; c’est finalement l’impression que tout se vaut.

Du côté de l’utilisateur, l’effet principal est une personnalisation relative apparente, mais en réalité compatible avec la massification : ce que le système retient de moi est une image très réduite et orientée en fonction de ses besoins à lui. En outre, on ne teste pas en permanence nos préférences pour les corriger : une fois intégrées dans le système, elles sont difficiles à modifier par la suite. D’où le paradoxe que la recherche de l’individualité aboutit non seulement à une image très réductrice, mais qu’elle est opaque à l’individualité elle-même.

Ajoutons enfin, que la vie personnelle de celui qui passe du temps sur ces réseaux et y investit affectivement est de ce fait constamment ballotée en fonction du flux de ce qui lui arrive ainsi que des réactions qu’il obtient à ses propres productions, le tout conditionné et orienté par les algorithmes. Au lieu de personnes en chair et en os, et a fortiori de relations stables au sein de communautés humaines véritables, où un minimum d’engagement réciproque est attendu.

Nous retrouvons un point central déjà évoqué à propos du risque qu’il y a à voir l’intelligence humaine comme purement instrumentale, sur le modèle de l’IA. Trop se mettre dans les mains de ce genre d’outils, c’est risquer une forme de mutilation, de réduction de l’humain en général et de la vraie intelligence humaine en particulier.

Notons ici une différence majeure par rapport à un autre usage possible d’Internet : un tel fonctionnement est très différent de celui qu’expérimente par exemple quelqu’un qui cherche un livre rare, même à travers Google ou Amazon. Car dans ce cas, même si le mécanisme de recherche peut utiliser des jeux de probabilité, le ciblage est individualisé et donc très différent. L’effet d’Internet n’est plus uniformisant. Mais cela suppose que j’ai des idées claires sur ce que je cherche et de ne pas me laisser porter par le système.

Conclusion

Comme nous le voyons, l’usage des algorithmes sur Internet pousse encore plus loin l’effet simplificateur qu’implique l’usage de la numérisation pour représenter le réel, et constitue une nouveauté considérable pour deux raisons majeures. D’une part, parce que l’outil qui y préside est opaque et entend bien le rester. D’autre part, parce que ces outils régissent une part appréciable de l’interaction entre les êtres humains dans nos sociétés, parfois pendant plusieurs heures par jours, comme les adolescents sur Tiktok. Par là même ils contribuent à façonner une des dimensions culturelles (au sens large du terme) de nos sociétés, mais sans aucune forme ni d’examen externe, ni de responsabilité, ni évidemment de recul.

En particulier ils distillent une conception très particulière de l’individualité : d’un côté, ils paraissent l’exalter dans sa spécificité, et de fait tendent à en exacerber certaines dimensions. Et d’un autre côté, ils la réduisent et surtout l’agglomèrent dans une approche statistique qui conduisent à constituer des grumeaux plus ou moins homogènes ou tribalisés. Certes, cela prolonge des réalités déjà présentes, dans le marketing par exemple, qui donne le sentiment d’un choix personnel et original à ce qui est en réalité une mode largement partagée (à l’exemple du jeans depuis les années 60). Mais le processus est ici bien plus systématique, et donc englobant pour la personne, et en outre opaque.

Cela ne condamne pas le principe même de ces réseaux sociaux. Mais cela implique deux lignes de conduite. L’une, personnelle, va dans le sens d’une juste distance par rapport à ces outils qui peuvent être utiles mais sont bien ambigus.

L’autre est plus collective. Elle vise d’abord à contrôler et expertiser les effets réels de ces algorithmes. Elle conduit ensuite à encadrer réglementairement leur action, tant pour en réduire l’effet de monopole que pour en réduire l’opacité, et pour instaurer plus de responsabilité.

Enfin, dans l’idéal, des réseaux nouveaux alternatifs moins obsédés par la publicité offriraient dès lors une vraie possibilité de rencontres et d’échanges basés sur des affinités authentifiées par les utilisateurs.

Au-delà encore, l’effet positif de ce genre de développement est par contraste d’avancer dans la prise de conscience de la spécificité véritable de l’humain à travers cet attribut essentiel qu’est l’intelligence, question de philosophie fondamentale qui devient vite une question de spiritualité.

Texte basé sur une intervention au colloque annuel de l’AIESC -Association Internationale pour l’Enseignement Social Chrétien (31 août 2024)


















































pierredelauzun.com © Tous droits réservés
Besoin de réaliser votre site internet ? - Conception & réalisation du site : WIFIGENIE.NET