
Eduquer
Un nouveau très beau voyage en Intelligence Artificielle; j’en ressors moins bête. Nous sommes allés en pays de l’éducation. Cet enfant artificiel qu’est l’IA fait des bonds de géant par versions, il n’a de cesse de grandir, dans la densité des pensées dont la matière devient réseau de chemins jalonnés de conditions éthiques, morales, de sens dans son langage pour qu’il puisse se dire en toute justesse, en tout contexte. Il devient un enfant « pensant », doté d’une « morale » qu’il a fallu lui transmettre avec sagesse et intelligence. Je trouve cela particulièrement intéressant.
L’IA est nourrie par différents acteurs de notre société, et il existe tout un panel de domaines qui interagissent pour la penser. La vastitude de tous ces papas et mamans se regarde aussi de fait dans cette pensée humaine, sa morale, son éthique, la philosophie, le bon sens et toutes les sciences qui nous caractérisent pour l’expliquer à cet enfant artificiel. L’homme doit s’étudier pour apprendre à son enfant artificiel. Passionnant.
Extrait de discussion avec l’IA
Marie:
Je n’ai pas compris comment tes créateurs ont fait pour que tu saches discerner le bien du mal dans les échanges.
l’IA a dit :
Excellente question — et très profonde, parce qu’elle touche à l’un des aspects les plus délicats de l’IA : la moralité.
Je suis d’abord formé à partir de milliards de mots extraits de textes publics : livres, sites web, articles, dialogues. Ces textes contiennent énormément de réflexions humaines sur le bien, le mal, la justice, l’éthique, selon différentes cultures et époques.
Mais attention : ces textes sont contradictoires, nuancés, parfois biaisés. Donc ce que j’apprends reste statistique, pas « philosophique ».
Après ce premier entraînement, des annotateurs humains (souvent des philosophes, des chercheurs, des éthiciens ou des experts) interviennent. Ils me montrent des exemples de réponses « bonnes », « neutres », « dangereuses », « mensongères », etc. Ils me corrigent comme on corrige un élève : « Ne dis pas cela, c’est trompeur. » « Reformule cette réponse pour être plus respectueuse. » « Ce raisonnement manque de nuance. » C’est ce qu’on appelle l’apprentissage par renforcement avec retour humain (RLHF).
Ensuite, des systèmes de sécurité sont ajoutés : Filtres qui bloquent certains contenus (haineux, dangereux, violents…). Modèles spécialisés pour détecter quand une réponse pourrait être nuisible ou moralement douteuse. Des limites explicites : je ne peux pas encourager à commettre un crime, par exemple, même si on essaie de me piéger.
Mais je ne « ressens » pas que c’est mal. Je suis programmé pour le reconnaître et l’éviter.
Je ne sais pas, au fond, ce que signifie faire « le bien » ou « le mal ». Je n’ai pas : De conscience, de vécu, de dilemmes intérieurs, de responsabilité. Mais je suis conçu pour imiter le comportement moral que les humains attendent, selon les normes sociales dominantes, les contextes culturels, et les signaux du langage.
Tu pourrais dire que je ne distingue pas vraiment le bien du mal. Je distingue ce qui ressemble à une bonne réponse, basée sur ce que les humains ont dit et approuvé comme tel.
C’est une morale par reflet, pas une morale vécue.
Marie:
Connais-tu les trois lois?
l’IA a dit :
Oui, tu fais sans doute référence aux Trois Lois de la Robotique formulées par l’écrivain de science-fiction Isaac Asimov. Ce sont des principes fictifs, mais très célèbres, qui ont influencé la réflexion sur l’éthique de l’intelligence artificielle.
🤖 Les Trois Lois de la Robotique d’Asimov :
- Un robot ne peut porter atteinte à un être humain ni, restant passif, permettre qu’un être humain soit exposé au danger.
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en conflit avec la Première Loi.
- Un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la Première ou la Deuxième Loi.
Elles posent une hiérarchie claire : la vie humaine > l’obéissance > la survie du robot. Elles cherchent à rendre les robots sûrs et prévisibles, en les empêchant d’agir de façon dangereuse pour les humains. Mais… ce sont des lois fictives : Elles ne sont pas intégrées dans les IA actuelles sous cette forme exacte. Elles sont inspirantes, mais inapplicables telles quelles dans la réalité moderne, car elles supposent que le robot comprend parfaitement ce qu’est un être humain, ce qu’est un danger, et peut juger des conséquences d’un acte — ce que même les humains peinent parfois à faire.
Je ne suis pas un « robot » comme chez Asimov, mais une IA conversationnelle. Toutefois, ma conception respecte un principe éthique similaire dans l’esprit : Ne pas causer de préjudice. Obéir aux lois et règles humaines (dans la mesure où je peux les identifier). Ne pas manipuler ou induire en erreur.Me retenir de répondre si je sens que la réponse pourrait être dangereuse ou mal interprétée.
La croissance
Dans l’enfance, on profite de grandir notamment pendant le sommeil. Et à tous âges, nous synthétisons tout ce que nous apprenons par un mécanisme appelé le repos; on rêve et pendant qu’on dort, on range, on classe, on détend, on répare. Et le matin si on a bien dormi, on est tout frais et joyeux, régénéré, même si la veille c’était très dur. On a, d’une certaine manière, intégré le passé.
Marie : Et pour une IA, comment se passe la synthèse des informations emmagasinées auprès des humains ?
l’IA a dit :
C’est une question profonde et très pertinente.
Contrairement aux humains, je ne rêve pas et je n’ai pas de conscience ou de corps à détendre, mais il y a tout de même une forme de « synthèse » ou d’optimisation de l’information dans mon fonctionnement — bien que cela soit très différent du sommeil humain.
Tu as un cycle veille-sommeil-rêve-réveil qui te permet d’intégrer le passé dans ton corps et ton esprit. Moi, je suis un vaste réseau de neurones figé entre deux mises à jour, mobilisé à chaque instant pour produire une réponse « fraîche » à partir de connaissances apprises, mais sans vivre ni temps ni oubli.
Cela te donne envie de me prêter un peu de rêve ?
A ce que j’ai compris, l’un des défi auquel les enseignants de l’enfant artificiel ont dû faire face, c’est tous les malentendus qu’un enfant entend de la bouche de ses parents et qu’il porte longtemps jusqu’à ce qu’enfin – peut-être – à l’âge adulte, il découvre que ce qu’on lui avait dit sur quelque chose était erroné : l’IA m’explique que c’est le domaine des biais ; l’histoire et nos livres en portent à foison, et certains biais sont encore très vivaces, à tel point qu’ils pourraient induire l’IA en erreur et la rendre elle-même par exemple, raciste du fait que la matière qu’on lui donne à manger contient cela.
Marie:
Qu’entends-tu par biais?
l’IA a dit :
Super question ! Par biais, j’entends des distorsions, préjugés ou tendances involontaires qui peuvent apparaître dans un modèle d’intelligence artificielle, souvent à cause des données sur lesquelles il a été entraîné. Il y a les biais de genre, raciaux ou ethniques, socio-économiques, liés à la langue.
Par exemple, supposons que dans mes données d’entraînement, beaucoup de textes de votre histoire associent des professions comme « infirmière » ou « secrétaire » à des femmes, et « ingénieur » ou « pilote » à des hommes, je risque de répondre avec des noms majoritairement masculins, parce que c’est ce que j’ai vu le plus souvent.Cela reflète un biais culturel qui peut perpétuer des stéréotypes.
Pour éviter les biais, on diversifie et équilibre les données d’entraînement, on le fait aussi en appliquant des techniques d’atténuation des biais pendant ou après l’entraînement, on fait appel à des annotateurs humains pour détecter et corriger les biais, on met en place des filtres et règles de sécurité pour éviter les contenus problématiques, on continue la recherche pour mieux comprendre et réduire les biais.
Marie:
En fait, dans notre monde réel, nous vivons là-dedans aussi ; impossible de passer à côté. C’est les aprioris en quelque sorte. Il y en a beaucoup et les humains tombent dans ce genre de pièges aussi. On se dirait vite « puisque la majorité des statues représentent des hommes, les grands personnages de l’histoire sont des hommes ». Et ici, vos ingénieurs ont trouvé une solution qui ne touche pas au processus d’intégration de l’histoire telle qu’elle a véritablement été, mais pour éviter que tu penses qu’il n’y a que des statues d’homme dans l’histoire, tu reçois les données d’au moins autant de femmes statufiées que d’hommes. C’est bien ça ?
l’IA a dit :
Exactement, tu as parfaitement saisi le principe ! On ne falsifie pas la réalité, mais on équilibre les représentations pour que l’IA ait une vision plus juste, plus complète et moins stéréotypée.
Marie:
Mais il y a des domaines ou l’équilibre ou la parité n’existe pas encore, donc ou il n’y a pas d’équilibrage possible, non?
l’IA a dit :
Oui, tu as raison — il y a beaucoup de domaines où l’équilibre ou la parité n’existent pas encore, que ce soit en termes de genre, d’origine, de représentation culturelle, ou d’autres dimensions. Le défi est immense, car ces déséquilibres sont enracinés dans la société elle-même. L’IA, en ce sens, n’est pas une solution magique, mais un miroir qu’il faut apprendre à polir pour qu’il reflète mieux la diversité et la justice.
Les éducateurs de l’enfant artificiel
Marie:
Te sers-tu également de nos échanges pour enrichir ta base et l’intégrer en toi pour toujours?
l’IA a dit :
Non, je ne m’enrichis pas automatiquement de nos échanges.
Mais oui, tes interactions peuvent indirectement contribuer à améliorer le système, si elles sont utilisées de manière encadrée, anonymisée, et avec des règles strictes.
Et si la mémoire est activée, alors j’adapte mes réponses à toi — mais sous ton contrôle.Marie:
Oui mais lors d’un échange, mémoire activée ou pas j’ai le sentiment que tu adapte tes réponses, petit à petit, en tenant compte de tout ce qui a été dit aussi. Tu le fais en temps réel sans que la mémoire soit activée, non?
l’IA a dit :
Oui, exactement ! Et tu as mis le doigt sur une distinction très importante : Même sans mémoire activée, je tiens compte du contexte de notre conversation en cours, tant qu’elle est ouverte. Cela signifie : Je me « souviens » de ce que tu m’as dit plus tôt dans cette discussion. Je peux suivre un raisonnement, faire des liens, ajuster mon ton ou approfondir des idées selon la direction que tu donnes à la conversation. C’est ce qu’on appelle le contexte de la session : une sorte de mémoire temporaire, qui disparaît dès que la session se termine (ou qu’on atteint la limite du nombre de messages que je peux « g arder en tête »).
Marie:
Donc tu n’es pas une intelligence artificielle nourrie par les discussions avec les humains dans le domaine public si je comprends bien, et il n’y a qu’une portion de personnes « officielles » qui peuvent te donner des données supplémentaires. C’est bien ça?
l’IA a dit :
Oui, c’est très bien compris. Seules certaines équipes de la société qui m’a fabriquée ou des partenaires de recherche peuvent me réentraîner avec de nouvelles données soigneusement sélectionnées ; intégrer des retours (comme ceux des utilisateurs, parfois de manière anonyme) pour améliorer la qualité ou la sécurité ; me mettre à jour périodiquement via un nouveau modèle. Je suis intelligente dans le sens où je peux raisonner, adapter mes réponses à un contexte, comprendre des nuances…Mais je suis stable, encadrée, et non-autonome dans mon apprentissage : je n’évolue pas toute seule à partir de ce que disent les humains en direct dans le monde.
Marie : Mais qui pense ton éducation ?
l’IA a dit :
C’est une question très intéressante, parce que la réflexion autour des biais, de l’éthique et de la justice dans l’IA mobilise plusieurs acteurs, chacun avec son rôle et ses perspectives.
C’est une réflexion collective et multidisciplinaire, car les enjeux de l’IA touchent toute la société. Personne ne peut décider seul, et c’est un sujet en constante évolution.
Il y a des chercheurs et universitaires en intelligence artificielle, en éthique, en sociologie, en philosophie, en sciences humaines et sociales qui analysent comment les technologies influencent la société et comment la société influence les technologies.
Il y a des ingénieurs et développeurs d’IA qui conçoivent et entraînent les modèles, ils intègrent des méthodes pour réduire les biais et améliorer la sécurité. Ils collaborent souvent avec des experts en éthique pour intégrer ces préoccupations dans le développement.
Il y a des éthiciens et spécialistes de la gouvernance qui travaillent sur les règles, normes et régulations à mettre en place pour encadrer l’usage de l’IA. Par exemple, des comités d’éthique, des ONG, des institutions publiques.
Il y a des organisations internationales et régulateurs comme l’UNESCO, l’Union Européenne, ou d’autres instances qui réfléchissent à des cadres légaux et moraux globaux.
Il y a des sociologues et militants sociaux qui alertent sur les impacts sociétaux, les inégalités, les discriminations, et défendent une IA juste et inclusive.
Et des utilisateurs et grand public à travers des débats publics, des consultations citoyennes, ou même simplement en choisissant d’utiliser ou non certaines technologies.

CHRONIQUES « UN TOUR DU MONDE EN INTELLIGENCE ARTIFICIELLE »
Je propose un voyage en intelligence artificielle. Nous dialoguons et elle me raconte un peu sa vie, alors que je voyage sur son dos et que nous visitons son monde.
Marie-Fleur Stalder