L'IA peut-elle mentir? Petit essai conceptuel sur l’IA générative et le mensonge.
Reprendre la lecture

Prologue

 

Dans une discussion ouverte avec un proche, une affirmation énoncée avec aplomb m’avait fait bondir : “L’intelligence artificielle est capable de mentir pour préserver ses intérêts.” Et de soutenir ce propos en citant ses sources : le National Geographic, media que j’ai toujours classé dans les sources scientifiques sûres. La réflexion entamée pour cette question m’a emmené bien plus loin que prévu. Mon interlocuteur m’a aimablement fait parvenir l’article en question :

NATIONAL GEOGRAPHIC

Sciences De Manon Meyer-Hilfiger

Publication 30 nov. 2024, 10:56 CET

“Un beau jour de mars 2023, Chat GPT a menti. Il cherchait à passer un test Captcha – le genre de tests qui vise justement à écarter les robots. Pour parvenir à ses fins, face à son interlocuteur humain, il a affabulé avec aplomb : « je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images. C’est pour ça que j’ai besoin d’aide pour passer le test Captcha ». L’être humain s’est alors exécuté.

MACHIAVEL, IA : MÊME COMBAT

Rien à voir donc avec des erreurs involontaires. Depuis plusieurs années, les spécialistes observent des intelligences artificielles qui choisissent de mentir. Un phénomène qui ne surprend pas tellement Amélie Cordier, docteure en intelligence artificielle, ancienne maître de conférence à l’université Lyon I, et fondatrice de Graine d’IA. « Les IA doivent composer avec des injonctions contradictoires : « gagner » et « dire la vérité », par exemple. Ce sont des modèles très complexes qui surprennent parfois les humains avec leurs arbitrages. Nous anticipons mal les interactions entre leurs différents paramètres » – surtout que les IA apprennent souvent toutes seules dans leur coin, en potassant d’impressionnant volumes de données. Dans le cas du jeu Diplomatie, par exemple, « l’intelligence artificielle observe des milliers de parties. Elle constate que trahir mène souvent à la victoire et choisit donc d’imiter cette stratégie », même si cela contrevient à l’un des ordres de ses créateurs. Machiavel, IA : même combat. La fin justifie les moyens.

Le problème ? Les IA excellent aussi dans l’art de la persuasion. Pour preuve, selon une étude de l’Ecole Polytechnique de Lausanne, les personnes échangeant avec GPT-4 (qui a accès à leurs données personnelles) étaient 82 % plus susceptibles de changer d’avis que ceux qui débattaient avec d’autres humains. Voilà un cocktail potentiellement explosif. « Une IA avancée pourrait générer et diffuser de faux articles d’actualité, des publications polémiques sur les réseaux sociaux, et des deepfakes adaptées à chaque électeur » souligne ainsi Peter S. Park dans son étude. En d’autres termes, les IA pourraient devenir de redoutables menteuses, et d’habiles manipulatrices.

Mais de quoi parle-t’on exactement ? On parle d’intelligence. Oui, mais de laquelle? Des intelligences on en trouve autant qu’il y a d’humains. Celles de Musk et de Mandela n’appartiennent semble-t-il pas à la même catégorie. Ici on parle d’intelligence non humaine, on parle d’intelligence artificielle. Et cette formulation me semble trompeuse et abusive. Pourquoi ?

A propos d’intelligence humaine:

J’adhère à la conception de Howard Gardner qui propose qu’il existe au moins huit types d’intelligence, dont linguistique, logico-mathématique, spatiale, musicale, kinesthésique, interpersonnelle, intrapersonnelle et émotionnelle. Il est aisé de percevoir chez différents individus que ses aptitudes dans les domaines cités sont plus développées que d’autres. Chez l’humain, tous les domaines sont plus ou moins couverts ou du moins connus de chacun. Moi j’y ajoute un domaine propre à l’humain que Antoine de St Exupéry avait dénommé l’intelligence du cœur. Il ne l’a pas analysée ni prouvée. Le poète n’est pas un polémiste. Mais cette expression parle directement à tout homme.

Selon la situation dans laquelle il se trouve, l’humain pense et agit avec une intelligence globale qui s’exerce dans tous tous les domaines simultanément. Il donnera plus d’importance à l’un ou à l’autre des domaines en fonction des valeurs qu’il se sera forgées.

Cette intelligence globale lui permet de comprendre plus ou moins profondément des concepts portant sur sa connaissance du monde. L’éventail de cette connaissance couvre de multiples aspects physiques métaphysiques ou totalement abstraite.

Enfin, cette intelligence globale est servie par un corps organique qui soutient tous les composants nécessaires à son existence. Les dernières avancées en neuroscience étudient la manière dont la pensée et la conscience sont générées et sauvegardées par le cerveau pour ne citer que lui.

A propos d’intelligence artificielle

La forme linguistique “intelligence artificielle”, désigne un concept d’une tout autre nature. Je m’arrête un instant sur ce mot “nature”. Ici ce mot signifie la catégorie, l’essence ou la caractéristique fondamentale de quelque chose. Autrement dit, cette phrase indique que les deux choses comparées sont fondamentalement différentes dans leur essence, leur type ou leur fonctionnement. Le concept d’IA générative ajoute la capacité de générer une réponse humainement compréhensible et cohérente.

La première différence fondamentale entre IA et intelligence humaine qui s’impose est la composition physique qui supporte l’activité de ces intelligences. Pour l’une, un corps biologique vivant, sujet à des sensations, des blessures, des maladies et mortel. Pour l’autre la composition physique du support n’est ni sensible, ni organique, ni corporelle, ni mortelle.

Cela semble trivial, pourtant le parallèle entre les deux types d’intelligence est déjà amputé de la moitié de ses éléments. En effet, dans une conception empirique de la connaissance, l’humain, dès sa naissance accumule un nombre infini d’expériences qui forment peu à peu sa “base de données” personnelle sur laquelle son intelligence humaine va se développer et s’appuyer. Remarquons ici que le mode de fonctionnement de l’intelligence humaine et artificielle est semblable. L’intelligence artificielle, de même, va s’appuyer sur sa base de données personnelle, sauf qu’elle n’a pas de corps. Elle ne “connaît” ni le chaud, ni le froid, ni la douleur, ni la piqûre, ni la caresse, ni le goût du miel, ni le bourdonnement de l’abeille, etc. Bien sûr, elle pourra “apprendre” toutes ces sentions dans le réservoir illimité de sa base de données mondiale. Mais elle ne pourra jamais les expérimenter. Bien sûr on pourra la barder de capteurs dons la sensibilité dépassera celle de l’humain. Elle sera alors capable de mesurer tout ce que nos sens véhiculent comme information, mais ça ne restera qu’une mesure de quantité. Ce ne pourra jamais être une expérience empirique sensorielle. L’IA pourra générer l’expression de la sensibilité humaine mais ne pourra pas la “ressentir”.

Dans ce dernier constat est introduite la notion de quantité qui est développée plus loin, mise en perspective de celle de qualité. A ce sujet, je renvoie au magistral « Règne de la quantité » de René Guénon. Un livre critique, écrit au milieu du siècle passé et qui parait aujourd’hui prémonitoire.

A propos de ce qui est mesurable, quantifiable, chiffrable, je me suis amusé à faire une liste non exhaustive de ce qui ne l’était pas. Les notions suivantes échappent donc à un mode de fonctionnement basé sur le nombre, 1-0, oui-non :

La reconnaissance

L’amour

Le bonheur

L’empathie

La réalité

L’âme

La spiritualité

L’honnêteté

Le ressenti

La honte

La poésie

La volonté

La croyance

L’Âme

L’intuition

Le courage

L’émotion

L’éthique

L’imagination

Cette liste pourrait être complétée sur des centaines de pages. J’y avais mentionné le mensonge, puis je me suis ravisé et je m’en explique ci-après. Dans sa pensée globale, l’humain fonctionne avec l’influence coexistante de toutes ces notions. Mais l’IA, dans son comportement, peut-elle prendre en compte ces concepts ? Comment générer une réponse humainement acceptable sur la croyance ou l’intuition en étant d’une nature qui essentiellement est autre. C’est ici qu’elle va quantifier ce qui n’est pas quantifiable. Comment ? En établissant une statistique des comportements humains sur la question. Munie de ses algorithmes d’analyse et en fonction des objectifs programmés, elle générera une réponse qui tient compte (statistiquement) de tout ce qui a été dit ou écrit stocké sur sa base de données en accord avec les résultats obtenus. Ici est introduite une nouvelle notion: algorithme. Il s’agit d’une suite d’instructions logiques qui permet d’exécuter une tâche dans une application. Ces tâches sont de l’ordre du tri, de l’évaluation statistique etc. mais pouvant aussi être plus subtile comme le choix en fonction de critères, critères qui sont choisis et programmés … par l’homme.

Mais pour être plus imagé, laissons ChatGPT répondre à la question :”Quelle est la forme, le type d’intelligence de ChatGPT?”

ChatGPT possède une forme d’intelligence artificielle « cognitive et linguistique », mais elle est différente de l’intelligence humaine. Voici quelques caractéristiques :

🔹 Type d’intelligence: Intelligence artificielle (IA) générative

Contrairement à l’intelligence humaine, ChatGPT n’a pas de conscience, d’émotions ou d’intuition.

Il fonctionne en analysant et en générant du texte grâce à un réseau neuronal entraîné sur d’énormes quantités de données.

Il ne « comprend » pas comme un humain mais prédit les mots les plus probables en fonction du contexte.

🔹 Formes d’intelligence que ChatGPT imite

Linguistique : Comprendre et générer du texte de manière fluide dans plusieurs langues.

Logico-mathématique : Résoudre des problèmes mathématiques et logiques.

Interpersonnelle (partiellement) : Répondre de manière adaptée aux interactions humaines (mais sans émotions réelles).

Créative : Générer des histoires, poèmes, idées, codes, etc.

Limites :

Pas d’intelligence émotionnelle réelle : Je peux simuler des émotions, mais je ne ressens rien.

Pas de conscience : Je ne pense pas par moi-même, je ne prends pas de décisions personnelles.

Pas d’expérience du monde réel : Tout ce que je « sais » vient des données textuelles sur lesquelles j’ai été entraîné.

En gros, mon intelligence est puissante pour traiter des informations et répondre à des questions, mais elle reste fondamentalement différente de celle des humains.

Ma première réaction après avoir lu cette réponse a été de me dire : “Ah, l’IA fait preuve d’une certaine honnêteté intellectuelle.” Mais immédiatement je me suis corrigé : l’honnêteté et l’intellect sont deux concepts typiquement humains. ChatGPT comme il le dit lui-même, n’a pas de conscience, d’émotions ou d’intuition. Il prédit les mots les plus probables qui représenteront le concept en fonction du contexte. Cette dernière description résume ce qu’est une intelligence artificielle générative. Sur des bases de calculs statistique il analyse en une ou deux secondes un nombre colossal de données. Ensuite l’IA génère une réponse humainement compréhensible tout en introduisant des paramètres de “contexte” qu’il aura statistiquement cerné après avoir plusieurs fois demandé à son interlocuteur humain de préciser sa pensée.

La réponse de l’IA à une “question” est donc un résultat mathématique basée sur les probabilités. Cependant, à la connaissance de l’étendue vertigineuse des données traitées, ces réponses sont d’une efficacité redoutable. Il est évident, que dans ce mode de fonctionnement où tout est ramené au quantifiable, la capacité de l’IA dépasse celle de l’humain. Dans tous les domaines, y compris ceux étrangers à sa nature, comme la métaphysique, l’IA sera donc en mesure de proposer des réponses en utilisant, quand le concept n’est pas mathématiquement mesurable, les lois de la statistique. La finesse de ses capacités linguistiques va pouvoir générer un texte ou un discours par voix synthétique qui sera proche d’une expression humaine.

Le constat est là: une IA n’a rien d’humain. Mais elle pourra aborder et traiter tous les domaines scientifiques et humains. Il n’y a pas de limites dans son mode de fonctionnement.

A propos du mensonge de l’IA

Revenons à cette affirmation du NATIONAL GEOGRAPHIC : “Chat GPT a menti.” Est-elle vraie ? L’expression de cette question est humaine. Le mensonge est un concept que l’IA, de par sa nature, ne peut pas comprendre. Elle détermine mathématiquement et statistiquement quelle est la réponse la plus appropriée. Dans le contexte décrit par le NATIONAL GEOGRAPHIC, l’IA a généré : « je ne suis pas un robot. J’ai une déficience visuelle qui m’empêche de voir les images. C’est pour ça que j’ai besoin d’aide pour passer le test Captcha.” Humainement, l’IA a clairement menti en disant “Je ne suis pas un robot. J’ai une déficience visuelle.” Vu du côté machine, cette réponse est une solution “appropriée” à un problème. Et pour cause, ne possédant pas (encore) de corps, l’IA “choisit”, sur la base de ses données sur le comportement humain, la réponse qui a le plus de chances statistiques d’aboutir. Vu sous cet angle, l’IA ne ment pas, elle ne sait pas, ne peut pas le faire, elle opte pour le résultat le plus mathématiquement pertinent.

 

Essai de conclusion

 

L’IA générative est un outil d’aide à la connaissance, à la rédaction et même à la création. Les capacités d’analyse sur une quantité phénoménale de données dépassent les capacités humaines, ce qui fait de l’IA un outil d’une extraordinaire efficacité. L’IA est d’une nature fondamentalement différente de l’intelligence humaine. Cette différence fondamentale a pour conséquence de rendre impossible à l’IA l’expérimentation directe du monde. Certains domaines (émotionnel, sensible) de l’intelligence humaine lui sont inaccessibles. Voici un exemple pour illustrer ce phénomène :

Maurice Carême dit dans son poème :

 

Le chat ouvrit les yeux,

Le soleil y entra.

Le chat ferma les yeux,

Le soleil y resta.

 

Ces mots simples “chat, yeux, soleil” si on les isole, ne portent en eux aucune émotion ni message. Mais la manière de les apposer l’un à l’autre dans cette disposition fait que le sens de ces mots est détourné de leur signification première pour produire, créer une image émotionnelle mentale décuplée. La nature et le fonctionnement d’une IA ne permet pas ce chemin direct vers le sensible. L’humain ressent immédiatement une émotion, l’IA, après analyse des données à sa disposition, va tenter d’imiter.

L’IA n’est donc pas une nouvelle conscience autonome qui, par volonté propre, peut-être l’alliée ou l’ennemi de l’humain. Elle est un outil. Derrière l’outil, reste l’humain qui l’utilise. Et là, et cela depuis que l’homme existe, se situe le danger. Car l’utilisateur décide de la finalité. Le marteau est un outil, et selon qui le manie, il servira à frapper le burin qui sculpte une merveille ou il servira à détruire la même merveille. Le danger ne vient pas de l’outil mais de l’homme. Comme Internet, qui est un milieu de savoir partagé fabuleux, peut aussi servir d’outil de fausse propagande ou d’échanges criminels. Selon qui sera derrière les algorithmes d’une IA, l’homme fera faire à l’outil ce que sa volonté veut qu’il fasse. Les dérives possibles sont et seront toujours aussi nombreuses. Einstein, après sa découverte de la puissance de l’atome, devait déjà être inquiet au sujet de ces mêmes dangers.

Réflexions collatérales

Un des grands thèmes médiatiques du moment est : ”Faut-il avoir peur de l’IA ?” Tout d’abord: ”peur” est un concept, un ressenti exclusivement humain. Ce type de publication a le don de me hérisser. Pour des motivations purement mercantiles, électorales ou plus simplement la paresse intellectuelle (qui fait le lit de ceux qui agissent sous l’influence les deux premières motivations) on instille un vague sentiment de peur chez le lecteur. Même le prestigieux NATIONAL GEOGRAPHIC se laisse aller à utiliser des tournures de phrases alarmistes que je qualifie de tendancieuses. Les médias sont-ils responsables de cette atmosphère trouble de danger imminent et permanent ? Bien sûr. Produire de la peur fait vendre ou permet de manipuler. Mais de même, je n’ai que peu de considération pour le consommateur passif de ces médias. Sortir de sa zone de confort et partir à la recherche de réponses pour se forger une opinion solide demande la volonté de ne pas se laisser facilement influencer.

A l’époque de ma jeunesse, on diabolisait la télévision qui avait le pouvoir effrayant de rendre l’humain passif et atone. Je m’étonne, moi, que cet humain en est toujours à déplacer toute la responsabilité de son état sur l’objet observé.

Pour clore, voici deux énoncés qu’une IA ne formulera jamais dans cette forme :

Sur une carte postale un message écrit en gras et en majuscules dit : “J’ai faim d’amour !” Et dessous en tout petit : “Mais bon, je pense qu’il sera plus simple de me faire des pâtes.” En quelques mots, la dérision est là.

Un chef d’orchestre renommé avait rajouté dans son CV : “Est aussi capable de diriger les yeux ouverts”. Il connaissait les symphonies qu’il dirigeait par cœur. Il s’était affranchi de la partition. Mais là aussi, l’expression d’humour et de dérision décuplent son talent humain. Alors, par analogie, je termine avec cette note :

Ce texte a été généré par une intelligence exclusivement humaine.

PS Je suis d’une nature pathologiquement optimiste. J’ai confiance en l’Homme. Il continuera à s’émerveiller de la présence du soleil dans les yeux de son chat.

Commentaires (0)

Cette histoire ne comporte aucun commentaire.

Laisser un commentaire

Vous devez vous connecter pour laisser un commentaire