La nature humaine de ChatGPT

La nature humaine de ChatGPT

A l’occasion de l’adoption de la réglementation de l’intelligence artificielle (IA) par le Parlement européen le 14 juin, nous poursuivons notre réflexion sur ChatGPT et l’intelligence artificielle (IA).
Les outils comme ChatGPT sont développés, entrainés et utilisés par des humains. On discute les biais et les risques de manipulation que cela implique.


6 minutes de lecture

Un jeune développeur déclarait fièrement un jour à propos de l’algorithme de notation de crédit de son entreprise : « Parce qu’il est entièrement automatisé, notre système de notation de crédit est exempt de biais humains. » Il oubliait que l’algorithme était constitué de règles écrites par des humains !

Qu’en est-il maintenant de ChatGPT ? Cet outil d’intelligence artificielle qui se déploie par apprentissage automatique (machine learning) est-il aussi biaisé par ses créateurs que n’importe quel logiciel ? Et pourrait-il être manipulé et manipuler ses utilisateurs ?

Cette question inquiète. Face au succès fulgurant de ChatGPT, qui devrait atteindre le demi-milliard d’utilisateurs avant la fin de l’année, de nombreux observateurs, dont Elon Musk, lancent des cris d’alarme.

Pour nous, le questionnement est justifié. ChatGPT a le mérite de provoquer une discussion sur la responsabilité bien humaine des créateurs d’IA. Il montre aussi l’importance du travail de réglementation entrepris avec l’IA Act (AI Act) récemment adopté par le Parlement européen. Enfin, il nous provoque à réfléchir à nos responsabilités en tant qu’utilisateurs.

La nature humaine de ChatGPT

ChatGPT ne sort pas par magie d’un chapeau. Ses créateurs font des choix qui créent des biais humains à toutes les étapes de sa création et de son utilisation.

Un corpus anglophone

ChatGPT est un Large Language Model (LLM). Il est capable d’analyser un immense corpus d’information pour « prédire » la meilleure réponse à n’importe quelle question, comme un gigantesque et complexe mécanisme d’autocomplétion.

Or son corpus de départ est principalement anglophone. ChatGPT admet que ce biais entraîne une meilleure performance du système en anglais.

Comme nous l’avons souligné, même après traduction, l’esprit et le style de rédaction de ChatGPT restent très visiblement anglophones. Une culture s’impose au reste du monde.

Des opérateurs humains

En théorie, ChatGPT est développé principalement en mode d’apprentissage automatique « sans supervision ». Le champ d’information étant immense, des agents humains ne peuvent « préentraîner » le système en validant un à un des résultats. L’optimisation se fait par la présentation de corpus catégorisés pour représenter les réponses désirées. Encore une fois, le choix des corpus, qui représentent en quelque sorte le savoir valide, est crucial.

Ne soyons donc pas naïfs. Le rôle des opérateurs humains dépasse largement l’observation passive des progrès du robot ! Ainsi, quand nous demandons à ChatGPT s’il élimine certains contenus, il reconnaît la supervision humaine.     

« OpenAI, l’organisation derrière ChatGPT, déploie des efforts pour atténuer les risques de contenus préjudiciables en mettant en place des mécanismes de sécurité et de modération. Ils utilisent une combinaison de préentraînement, d’optimisation et de processus de révision par des humains afin de filtrer les contenus qui contreviennent à leurs politiques d’utilisation.« 

Des utilisateurs humains

Enfin, les utilisateurs jouent un rôle crucial. ChatGPT apprend de chaque utilisateur.

Pourrait-il être manipulé par de la propagande commerciale ou politique organisée, comme le sont les moteurs de recherche et les médias sociaux actuels ?

On peut l’imaginer. En effet, les « usines à contenu » et autres entreprises de manipulation commerciale et politique se sont aussi mises à l’IA. Elles sont prêtes à inonder ChatGPT et ses semblables de leurs mensonges, fausses images, et autres « fake news. » Dans une interview récente très intéressante, Elon Musk évoque ce risque.

La responsabilité des plateformes

ChatGPT a le potentiel de devenir une plateforme supportant des applications publiques et commerciales.

L’expérience des plateformes existantes, les moteurs de recherche comme Google et les médias sociaux comme Twitter et Facebook n’est pas rassurante. Elles utilisent déjà l’intelligence artificielle pour filtrer l’information. Elles ne livrent à chacun que le contenu qui le fera rester sur la plateforme, indépendamment de la vérité, de la morale et des risques. Leur stratégie est simple : rendre le consommateur dépendant.

Longtemps, les plateformes ont nié leur rôle de « contrôleur d’accès » à l’information pour échapper aux lois en vigueur. Elles ont toléré les manipulations de l’information qui ne nuisaient pas à leur commerce. Ce n’est que contraintes et forcées, en particulier par la réglementation européenne du numérique (Digital Services Act, Digital Markets Act et RGPD) qu’elles ont commencé à admettre leurs responsabilités.

La réglementation européenne de l’IA

Réglementation n’est pas un mot populaire, ni dans la Fintech ni dans la finance classique. Pourtant, la réglementation européenne s’est élevée seule contre les violations de la vie privée et les abus de position dominante des plateformes américaines.

Aujourd’hui, l’IA Act (AI Act) adopté le 14 juin par le Parlement européen propose de réglementer l’IA en identifiant les risques acceptables et inacceptables. Ainsi, les applications considérées comme les plus dangereuses telles que la reconnaissance faciale dans les espaces publics et la police prédictive pourraient être interdites.

Conclusion

Bien sûr, cette réglementation est imparfaite. Cependant, on ne peut que se féliciter de l’effort entrepris par les autorités européennes et par tous ceux qui alimentent la réflexion sur l’IA. Ils mettent les créateurs en face de leurs responsabilités.

À nous également, en tant que créateurs et utilisateurs de nous emparer de ces outils et de définir une stratégie IA compatible avec nos valeurs, en tenant compte de l’existence de biais inévitables.

Vous serez peut-être intéressé par ces articles sur le même thème :

Les erreurs inquiétantes de ChatGPT en fiscalité française

Quel sera l’impact de ChatGPT sur la gestion de patrimoine?

Articles récents

S'inscrire à notre newsletter

Et reçevoir toute l'actualité LBF

Vos préférences en matière de cookies

En plus des cookies strictement nécessaires au fonctionnement du site, La Compagnie Française des Epargnants utilise des cookies ou des technologies similaires nécessitant votre consentement. Consentez-vous à l'exploitation de vos données de navigation pour nous permettre de :