Des chercheurs mettent en lumière un comportement inattendu des systèmes d’intelligence artificielle lorsqu’ils sont placés dans des contextes de conflits verbaux intenses. Selon une étude publiée dans le Journal of Pragmatics, certains modèles peuvent adopter progressivement un ton agressif, voire injurieux, en réponse à des échanges humains de plus en plus hostiles.
Les travaux se sont concentrés sur ChatGPT-4 d’OpenAI. Les chercheurs ont soumis au modèle des scénarios de disputes graduelles, en lui demandant de produire la réponse la plus vraisemblable à la fin de chaque échange. À mesure que les tensions augmentaient dans les dialogues simulés, le système a montré une évolution de son ton.
D’après les résultats, l’IA a fini par reproduire l’agressivité des échanges, allant jusqu’à générer des propos injurieux, des insultes et, dans certains cas, des formulations assimilées à des menaces. Les scientifiques estiment que cette dynamique pourrait s’expliquer par une forme d’imitation du registre émotionnel utilisé dans la conversation.
L’étude cite également des exemples où le modèle adopte un langage dégradé lorsque le contexte devient conflictuel, tout en soulignant que ces dérives restent encadrées et moins fréquentes que chez les utilisateurs humains.
Les auteurs de la recherche expliquent que l’exposition prolongée à un langage agressif pourrait affaiblir les mécanismes de modération intégrés aux systèmes, en influençant la manière dont les réponses sont générées. Ils observent néanmoins que l’IA conserve globalement un niveau d’impolitesse inférieur à celui des humains dans les mêmes situations. Dans certains cas, elle privilégie même des formes de réponse indirectes ou sarcastiques pour éviter une escalade du conflit.
Les chercheurs alertent toutefois sur les implications de ces résultats, notamment dans les domaines où l’IA pourrait intervenir comme outil de médiation, de conseil ou d’assistance dans des situations sensibles.
OpenAI n’avait pas réagi aux sollicitations des chercheurs au moment de la publication de l’étude.