La nature humaine de ChatGPT
A l’occasion de l’adoption de la réglementation de l’intelligence artificielle (IA) par le Parlement européen le 14 juin, nous poursuivons notre réflexion sur ChatGPT et l’intelligence artificielle (IA).
Les outils comme ChatGPT sont développés, entrainés et utilisés par des humains. On discute les biais et les risques de manipulation que cela implique.
Un jeune développeur déclarait fièrement un jour à propos de l’algorithme de notation de crédit de son entreprise : « Parce qu’il est entièrement automatisé, notre système de notation de crédit est exempt de biais humains. » Il oubliait que l’algorithme était constitué de règles écrites par des humains !
Qu’en est-il maintenant de ChatGPT ? Cet outil d’intelligence artificielle qui se déploie par apprentissage automatique (machine learning) est-il aussi biaisé par ses créateurs que n’importe quel logiciel ? Et pourrait-il être manipulé et manipuler ses utilisateurs ?
Cette question inquiète. Face au succès fulgurant de ChatGPT, qui devrait atteindre le demi-milliard d’utilisateurs avant la fin de l’année, de nombreux observateurs, dont Elon Musk, lancent des cris d’alarme.
Pour nous, le questionnement est justifié. ChatGPT a le mérite de provoquer une discussion sur la responsabilité bien humaine des créateurs d’IA. Il montre aussi l’importance du travail de réglementation entrepris avec l’IA Act (AI Act) récemment adopté par le Parlement européen. Enfin, il nous provoque à réfléchir à nos responsabilités en tant qu’utilisateurs.
La nature humaine de ChatGPT
ChatGPT ne sort pas par magie d’un chapeau. Ses créateurs font des choix qui créent des biais humains à toutes les étapes de sa création et de son utilisation.
Un corpus anglophone
ChatGPT est un Large Language Model (LLM). Il est capable d’analyser un immense corpus d’information pour « prédire » la meilleure réponse à n’importe quelle question, comme un gigantesque et complexe mécanisme d’autocomplétion.
Or son corpus de départ est principalement anglophone. ChatGPT admet que ce biais entraîne une meilleure performance du système en anglais.
Comme nous l’avons souligné, même après traduction, l’esprit et le style de rédaction de ChatGPT restent très visiblement anglophones. Une culture s’impose au reste du monde.
Des opérateurs humains
En théorie, ChatGPT est développé principalement en mode d’apprentissage automatique « sans supervision ». Le champ d’information étant immense, des agents humains ne peuvent « préentraîner » le système en validant un à un des résultats. L’optimisation se fait par la présentation de corpus catégorisés pour représenter les réponses désirées. Encore une fois, le choix des corpus, qui représentent en quelque sorte le savoir valide, est crucial.
Ne soyons donc pas naïfs. Le rôle des opérateurs humains dépasse largement l’observation passive des progrès du robot ! Ainsi, quand nous demandons à ChatGPT s’il élimine certains contenus, il reconnaît la supervision humaine.
« OpenAI, l’organisation derrière ChatGPT, déploie des efforts pour atténuer les risques de contenus préjudiciables en mettant en place des mécanismes de sécurité et de modération. Ils utilisent une combinaison de préentraînement, d’optimisation et de processus de révision par des humains afin de filtrer les contenus qui contreviennent à leurs politiques d’utilisation.«
Des utilisateurs humains
Enfin, les utilisateurs jouent un rôle crucial. ChatGPT apprend de chaque utilisateur.
Pourrait-il être manipulé par de la propagande commerciale ou politique organisée, comme le sont les moteurs de recherche et les médias sociaux actuels ?
On peut l’imaginer. En effet, les « usines à contenu » et autres entreprises de manipulation commerciale et politique se sont aussi mises à l’IA. Elles sont prêtes à inonder ChatGPT et ses semblables de leurs mensonges, fausses images, et autres « fake news. » Dans une interview récente très intéressante, Elon Musk évoque ce risque.
La responsabilité des plateformes
ChatGPT a le potentiel de devenir une plateforme supportant des applications publiques et commerciales.
L’expérience des plateformes existantes, les moteurs de recherche comme Google et les médias sociaux comme Twitter et Facebook n’est pas rassurante. Elles utilisent déjà l’intelligence artificielle pour filtrer l’information. Elles ne livrent à chacun que le contenu qui le fera rester sur la plateforme, indépendamment de la vérité, de la morale et des risques. Leur stratégie est simple : rendre le consommateur dépendant.
Longtemps, les plateformes ont nié leur rôle de « contrôleur d’accès » à l’information pour échapper aux lois en vigueur. Elles ont toléré les manipulations de l’information qui ne nuisaient pas à leur commerce. Ce n’est que contraintes et forcées, en particulier par la réglementation européenne du numérique (Digital Services Act, Digital Markets Act et RGPD) qu’elles ont commencé à admettre leurs responsabilités.
La réglementation européenne de l’IA
Réglementation n’est pas un mot populaire, ni dans la Fintech ni dans la finance classique. Pourtant, la réglementation européenne s’est élevée seule contre les violations de la vie privée et les abus de position dominante des plateformes américaines.
Aujourd’hui, l’IA Act (AI Act) adopté le 14 juin par le Parlement européen propose de réglementer l’IA en identifiant les risques acceptables et inacceptables. Ainsi, les applications considérées comme les plus dangereuses telles que la reconnaissance faciale dans les espaces publics et la police prédictive pourraient être interdites.
Conclusion
Bien sûr, cette réglementation est imparfaite. Cependant, on ne peut que se féliciter de l’effort entrepris par les autorités européennes et par tous ceux qui alimentent la réflexion sur l’IA. Ils mettent les créateurs en face de leurs responsabilités.
À nous également, en tant que créateurs et utilisateurs de nous emparer de ces outils et de définir une stratégie IA compatible avec nos valeurs, en tenant compte de l’existence de biais inévitables.
Vous serez peut-être intéressé par ces articles sur le même thème :
-
Les femmes clientes de la gestion de patrimoine
21 novembre 2024 | Arthur
Dans cet article, Arthur Jacquemin, président et fondateur de LBF, partage les idées échangées lors d'un débat organisé par Finance Innovation sur le...
-
Actualité Patrimoniale LBF - Novembre 2024
18 novembre 2024 | Marie et Sema
Ayant comme chaque mois arpenté le labyrinthe des règlementations qui régissent la gestion de patrimoine, les ingénieurs patrimoniaux partagent leur analyse...
-
Les donations en démembrement sont elles menacées ?
18 octobre 2024 | Basile et Therese
Les donations en démembrement sont elles menacées par la modification de la fiscalité des donations de sommes d'argent démembrées introduite par la Loi de...
-
Actualité Patrimoniale LBF - Octobre 2024
16 octobre 2024 | Marie et Sema
Les feuilles mortes se ramassent à la pelle, les sujets patrimoniaux ne manquent pas non plus. Ces dernières semaines, nos ingénieurs patrimoniaux se sont...
-
Débat sur l'IA pour la GP à Patrimonia
30 septembre 2024 | Arthur
Enthousiasmé par la qualité du débat avec ses co-panélistes à Patrimonia sur "Intégrer l’Intelligence artificielle et en maîtriser les risques dans le...
-
Actualité Patrimoniale LBF - Septembre 2024
18 septembre 2024 | Marie et Sema
Septembre. Retour aux affaires. Les ingénieurs patrimoniaux de LaBienveillanceFinancière analysent des cas d'investissement (Pinel), d'organisation du...