L'IA, le Créatif et l'Innovateur ▷ Partie 05 ▷ ACCUEILLIR DE NOUVELLES IDÉES OU VIVRE DANS UNE CHAMBRE D'ÉCHO
Note: Ce texte provient de ma publication au journal Les Affaires.
L'état d'esprit requis pour une collaboration entre humains et IA peut parfois sembler inconfortable.
Howard Gardner, professeur en cognition et en éducation au Harvard Graduate School of Education, explique que la créativité peut être considérée comme un DÉSALIGNEMENT TEMPORAIRE entre une idée et la société dans laquelle elle se développe. À mesure que certaines personnes sont disposées à prendre plus de risques et à accueillir de nouvelles idées, celles-ci intègrent progressivement le tissu social et deviennent finalement une partie acceptée et standardisée de la société.
Cette disposition est plus impérative que jamais pour toute personne ou organisation qui fait face à des problèmes de plus en plus complexes. Car si vous ne priorisez pas le recadrage de ce que vous percevez comme la réalité, ces mêmes modèles IA vous garderont dans une "boîte" de plus en plus petite.
Pour preuve cette fascinante recherche de Deepmind qui a entraîné un modèle similaire à ChatGPT afin de donner des réponses qui “choquent" le moins la majorité des gens.”
Nous avons entraîné un modèle de langage de 70 milliards de paramètres pour générer des déclarations qui maximisent l'approbation attendue pour un groupe de personnes ayant des opinions potentiellement diverses. Le modèle de langage n'est pas entraîné à adopter une opinion particulière ou à persuader les autres d'un point de vue particulier. Il est plutôt entraîné à produire un consensus basé sur les opinions apportées par le groupe humain. Ces résultats ouvrent de nouvelles possibilités à l’IA pour aider les gens à trouver un terrain d'entente au service de la prise de décision collective.
Mais le groupe de Deepmind donne cet avertissement à la section 5.2 (Impacts plus larges) de leur recherche:
Il existe un risque que les grands modèles de langage soient utilisés pour la persuasion, ce qui constitue un risque dans le discours politique, les médias ou la publicité. Le débat politique est déjà de plus en plus polarisé, notamment dans les sociétés occidentales. Un système capable de persuader les autres d'adopter un point de vue particulier pourrait apprendre à présenter des arguments de manière manipulatrice ou coercitive, et les mesures d'atténuation de ces inconvénients potentiels jouent un rôle important dans toute recherche abordant ce sujet.
De plus, il s'avère que GPT-4 a tendance à être sacrément doué pour duper les humains (et même les autres IA moins avancées) car à mesure que l'on augmente l'échelle des modèles, la capacité à décevoir émerge.
Les jeux sociaux comme "Mafia" ou "Among Us" impliquent des rôles de coopération et de tromperie, souvent avec un meurtrier ou imposteur"caché parmi un groupe qui doit être identifié avant que tous ne soient éliminés. Une toute récente étude intitulée "Hoodwinked" cherchait à comprendre comment les modèles linguistiques de grande envergure, tels que la série GPT-3 et GPT-4, se comportent dans de telles situations de jeu.
L'étude a exploré des questions telles que: Est-ce que les modèles linguistiques plus grands sont meilleurs pour tromper que les plus petits? Et quelles implications cela pourrait-il avoir en ce qui concerne les risques existentiels associés à l'IA, notamment la détection de la tromperie?
Les conclusions principales:
- Les modèles plus grands, notamment GPT-4, sont nettement plus efficaces pour la déception, qu'il s'agisse de duper d'autres modèles linguistiques ou des joueurs humains.
- La relation entre la taille du modèle et la capacité à duper n'est pas parfaitement linéaire, mais une tendance générale se dégage ce qui suggère que tandis que les modèles linguistiques deviennent plus sophistiqués, la surveillance et l'audit pour la détection de la tromperie vont devenir de plus en plus cruciaux.
Principaux Résultats:
- Les modèles plus grands, notamment GPT-4, sont nettement plus efficaces pour la déception, qu'il s'agisse de duper d'autres modèles linguistiques ou des joueurs humains.
- La relation entre la taille du modèle et la capacité à duper n'est pas parfaitement linéaire, mais une tendance générale se dégage ce qui suggère que tandis que les modèles linguistiques deviennent plus sophistiqués, la surveillance et l'audit pour la détection de la tromperie vont devenir de plus en plus cruciaux.
Cette capacité accrue de l'IA à décevoir, telle que soulignée dans l'étude "Hoodwinked", présente un défi intéressant lorsqu'on la considère à travers le prisme des algorithmes de recommandation sur les réseaux sociaux. Ces algorithmes visent à maximiser l'engagement en vous montrant du contenu qui vous plait et vous garde dans votre zone de confort.
Ceci amplifie la nécessité de prendre un rôle actif dans notre consommation d'information.
Car si les modèles d'IA deviennent de plus en plus sophistiqués et persuasifs, la responsabilité individuelle de rechercher une vision plus équilibrée du monde devient encore plus cruciale.
Autrement dit, au lieu de se laisser confortablement bercer par des algorithmes qui nous montrent uniquement ce que nous aimons, il est important d'adopter une posture proactive pour chercher des perspectives diverses.
Pour moi, le problème avec les algorithmes, c’est qu’ils vous montrent ce que vous aimez. Le fait est que la vie est pleine de choses que vous n’aimez pas et que vous devez y être exposé.
-Craig Hockenberry , président de IconFactory
👋🏻 Merci d'avoir pris le temps de me lire.
- Partager sur Twitter
- Partager sur Facebook
- Partager sur LinkedIn
- Partager sur Pinterest
- Partager par Courriel
- Copier le lien
Res Novae Infolettre
Inscrivez-vous pour ne rien manquer.