Prenons quelques exemples de conflits auxquels un étudiant fait généralement face au cours de sa vie quotidienne : un ami impossible à voir car semblant toujours trop occupé, donnant l'impression d'être de n’être pas impliqué dans la relation ; un colocataire qui laisse toujours sa vaisselle sale sur le comptoir ; ou encore un camarade qui publie des photos désobligeantes de soi en ligne.

À Forward College, nous avons mené une expérience pour voir si ChatGPT pouvait aider les étudiants à apprendre la résolution de conflits. Les résultats ont été surprenants : l'utilisation de l'IA pour un tel enseignement a produit des avantages inattendus.

Nous avons commencé par élaborer des scénarios comme ceux présentés ci-dessous, mais aussi des conflits plus délicats comme des opinions conflictuelles concernant la situation au Moyen-Orient ou sur le changement climatique. ChatGPT v.3.5 a ensuite été utilisé comme contrepartie du dialogue, et incité à utiliser les principes de la communication non violente, pour parvenir à un résultat satisfaisant.

Voici ce que nous avons constaté :

L'IA peut facilement intégrer les principes de la communication non violente pour engager un dialogue. Si vous utilisez des instructions simples ou une formule comme les quatre composantes de la communication non violente de Marshall Rosenberg - Observation, Sentiment, Besoin et Demande (OFNR), l'incorporation de ces composantes dans un dialogue avec ChatGPT peut en effet aider l’utilisateur à s'exprimer sans jugement, à reconnaître l'expression de ses émotions et de ses besoins, et à formuler des demandes claires et positives. Nous verrons plus loin dans quelle mesure il est possible d’atteindre une résolution de conflit.

L'IA dialogue en employant un langage et un ton neutres, ce qui est une pratique efficace dans la résolution de conflits. La "modélisation" par ChatGPT d'un langage non émotionnel (donc apparemment neutre) a donc été jugée utile pour désamorcer les échanges houleux : en réponse, les étudiants ont souvent constaté qu'ils se sentaient obligés d’employer eux-mêmes un langage neutre.

L'IA peut transformer une communication écrite virulente en un langage plus adapté à la formulation d’une demande polie.

Cela s'est avéré utile dans la pratique, par exemple pour traiter des problèmes de service à la clientèle qui dégénèrent. Le dialogue a eu une valeur cathartique : quelle qu’en soit l'issue, les élèves ont pu tenir une conversation qui aurait pu avoir lieu : ce faisant, ils ont été en mesure d’introduire une distance saine par rapport au conflit, d’élaborer des stratégies sur les différentes approches et atténuer des émotions négatives. Dans certains cas, les élèves ont choisi d’instaurer un dialogue conflictuel, voire agressif avec ChatGPT. Cela leur a permis d'évacuer leur colère et d'être ainsi mieux préparés à tenir de vraies conversations de manière à préserver de bonnes relations. Dans une certaine mesure, cela leur a aussi inconsciemment donné le sentiment d'être entendus.

L’IA comme outil de contrôle des connaissances

Les étudiants devaient connaître au préalable les principes de la communication non violente afin d’être correctement compris par ChatGPT. De cette manière, l'exercice avait valeur d’enseignement dans l’application et l’intégration des bonnes pratiques, de répétition et d’ajustement des prompts en fonction des besoins. ChatGPT a également joué un rôle pour évaluer l’efficacité de l’utilisation des principes de la communication non violente dans un dialogue en soulignant les améliorations possibles.

Mais le ChatGPT a-t-il été utile pour résoudre le conflit lui-même ?

Pas comme nous l'avions espéré. Reprenons le cas de l’ami qui semble toujours trop occupé pour vous. Avec ChatGPT, il n'y a aucun moyen de comprendre les intentions de cette personne ou les circonstances de son comportement, ni de déchiffrer son ton ou son langage corporel, ni encore d'identifier les attentes non comblées qu'il ou que vous pourriez avoir, et aucun moyen de recevoir des excuses appropriées.

En fin de compte, l'intelligence artificielle a des limites au niveau du code et du vocabulaire. Ainsi, bien que l'IA puisse aider à engager un dialogue similaire à celui d’un coach, elle reste limitée dans sa capacité à intégrer les intentions, la bienveillance, l'émotion, la gentillesse et l'empathie. Le discours actuel sur le sujet offre des perspectives intéressantes et prometteuses. Par exemple, la communication non violente peut-elle devenir le langage des systèmes d'intelligence artificielle ? Cet objectif vise à intégrer des comportements altruistes tels que la compassion, la gentillesse et le respect, par le biais d'algorithmes d'apprentissage automatique (voir ChatEMPATHY).

Cependant, l'utilisation du bon langage traduit-elle la création de valeurs altruistes ?

Malheureusement, il y a aussi le risque qu'un langage censé être sincère et authentique devienne banal. Entendre ChatGPT dire : « Je sens que vous êtes frustré. Je suis navré que vous vous sentiez ainsi », n'est pas suffisant à prêter à l’IA une quelconque intention altruiste.

Nabila Alibhai est responsable du développement personnel à Forward College où elle travaille sur les intelligences sociales. Elle est l'auteure de "Op Ed : The New Normal : The Future Impacted by Coronavirus and How Colour Replaces Fear" ("La nouvelle normalité : l'avenir impacté par le coronavirus et comment la couleur remplace la peur)".

Tassilo Doczy, étudiant en 1ère année à Forward College, contributeur à la recherche.