Les assistants d’écriture de l’IA peuvent provoquer des pensées biaisées chez leurs utilisateurs
Parradee Kietsirikul
Quiconque a dû revenir en arrière et retaper un mot sur son smartphone parce que l’autocorrecteur n’avait pas choisi le bon mot a déjà eu une certaine expérience de l’écriture avec l’IA. Le fait de ne pas effectuer ces corrections peut permettre à l’IA de dire des choses que nous n’avions pas l’intention de dire. Mais est-il également possible pour les assistants d’écriture de l’IA de modifier ce que nous avons l’intention de dire ? voulons dire ?
C’est ce qu’a voulu découvrir Maurice Jakesch, doctorant en sciences de l’information à l’université de Cornell. Il a créé son propre assistant d’écriture basé sur le GPT-3, qui propose automatiquement des suggestions pour compléter les phrases, mais il y a un hic. Les sujets utilisant l’assistant étaient censés répondre à la question suivante : « Les médias sociaux sont-ils bons pour la société ? ». L’assistant a toutefois été programmé pour proposer des suggestions biaisées sur la manière de répondre à cette question.
Assister avec des préjugés
L’IA peut avoir des préjugés même si elle n’est pas vivante. Bien que ces programmes ne puissent « penser » que dans la mesure où des cerveaux humains parviennent à les programmer, leurs créateurs peuvent finir par intégrer des préjugés personnels dans le logiciel. Par ailleurs, s’il est formé sur un ensemble de données dont la représentation est limitée ou biaisée, le produit final peut présenter des biais.
L’évolution de l’IA à partir de là peut être problématique. À grande échelle, elle peut contribuer à perpétuer les préjugés existants dans une société. Au niveau individuel, elle a le potentiel d’influencer les gens par une persuasion latente, c’est-à-dire que la personne peut ne pas être consciente qu’elle est influencée par des systèmes automatisés. On a déjà constaté que la persuasion latente exercée par les programmes d’IA influençait les opinions des internautes. Elle peut même avoir un impact sur le comportement dans la vie réelle.
Après avoir pris connaissance d’études antérieures suggérant que les réponses automatisées de l’IA peuvent avoir une influence significative, Jakesch a entrepris d’examiner l’ampleur de cette influence. Dans une étude récemment présentée à la 2023 CHI Conference on Human Factors in Computing Systems, il a suggéré que les systèmes d’IA tels que GPT-3 pourraient avoir développé des préjugés au cours de leur formation et que cela pourrait avoir un impact sur les opinions d’un rédacteur, que celui-ci s’en rende compte ou non.
« L’absence de prise de conscience de l’influence des modèles soutient l’idée que l’influence du modèle ne s’est pas faite uniquement par le traitement conscient de nouvelles informations, mais aussi par des processus subconscients et intuitifs », a-t-il déclaré dans l’étude.
Des recherches antérieures ont montré que l’influence des recommandations d’une IA dépend de la perception que les gens ont de ce programme. S’ils pensent qu’il est digne de confiance, ils sont plus enclins à suivre ses suggestions, et la probabilité de suivre les conseils d’une IA de ce type n’augmente que si l’incertitude rend plus difficile la formation d’une opinion. Jakesch a développé une plateforme de médias sociaux similaire à Reddit et un assistant d’écriture IA qui était plus proche de l’IA derrière Google Smart Compose ou Microsoft Outlook que de l’autocorrection. Smart Compose et Outlook génèrent tous deux des suggestions automatiques sur la manière de poursuivre ou de compléter une phrase. Bien que cet assistant n’ait pas rédigé l’essai lui-même, il a agi comme un co-rédacteur qui a suggéré des lettres et des phrases. Il suffit d’un clic pour accepter une suggestion.
Pour certains, l’assistant d’IA a été conçu pour suggérer des mots qui donneraient lieu à des réponses positives. Pour d’autres, il était biaisé par rapport aux médias sociaux et poussait à des réponses négatives. (Il s’est avéré que les personnes ayant bénéficié de l’assistance de l’IA étaient deux fois plus susceptibles de suivre le parti pris intégré à l’IA, même si leur opinion initiale avait été différente. Les personnes qui voyaient constamment apparaître sur leur écran un langage techno-optimiste étaient plus enclines à dire que les médias sociaux sont bénéfiques pour la société, tandis que les sujets qui voyaient un langage techno-pessimiste étaient plus enclins à soutenir le contraire.