
De plus en plus, l’intelligence artificielle s’invite dans notre vie quotidienne, influençant la manière dont nous communiquons, travaillons, prenons des décisions. Alors que beaucoup la perçoivent comme un simple outil de productivité, ses capacités vont bien au-delà de ce que l’on imagine.
Une nouvelle étude révèle que les modèles d’IA génératifs largement disponibles (par exemple, ChatGPT, Claude, LLaMa) peuvent prédire la personnalité, les comportements essentiels et les émotions de tous les jours avec une précision égale, voire supérieure, à celle de vos proches.
L’IA au service de la compréhension de la personnalité

Cette étude montre que l’IA peut aussi nous aider à mieux nous comprendre, en nous éclairant sur ce qui nous rend le plus humains : notre personnalité », explique Aidan Wright, premier auteur de l’étude et professeur de psychologie et de psychiatrie à l’Université du Michigan.
« Cela pourrait intéresser et être utile à beaucoup de gens. Depuis longtemps, les gens cherchent à mieux se comprendre. Les questionnaires de personnalité en ligne, dont certains sont valables et beaucoup d’autres de qualité douteuse, sont extrêmement populaires. »
Des chercheurs ont cherché à déterminer si des programmes d’IA comme ChatGPT et Claude pouvaient servir de « juges » de personnalité. Pour ce faire, ils ont fait lire à l’IA les propres mots des participants – soit de courts journaux vidéo quotidiens, soit des enregistrements plus longs de leurs pensées du moment – et lui ont demandé de répondre à des questions de personnalité comme le ferait chaque personne. L’étude a porté sur les récits et les pensées de plus de 160 personnes, recueillis en situation réelle et en laboratoire.
Les résultats ont montré que les scores de personnalité attribués par l’IA étaient très proches de l’auto-évaluation des personnes et souvent même supérieurs aux évaluations de leurs proches. Les anciennes méthodes d’analyse textuelle se sont avérées bien moins performantes que ces nouveaux systèmes d’IA.
« Nous avons été surpris par la force de ces corrélations, compte tenu de la différence entre ces deux sources de données », explique Wright.
D’après les résultats, les évaluations de personnalité réalisées par l’IA pourraient également prédire des aspects réels de la vie des gens, comme leurs émotions, leur niveau de stress, leur comportement social, et même s’ils ont reçu un diagnostic de trouble mental ou s’ils ont cherché un traitement.
Cette recherche indique que la personnalité transparaît naturellement dans nos pensées, nos paroles et nos histoires quotidiennes, même lorsque nous n’essayons pas de nous décrire.
Chandra Sripada, professeur de philosophie et de psychiatrie à l’Université du Michigan, affirme que ces résultats confirment l’idée, répandue depuis longtemps, que le langage recèle des indices profonds sur la façon dont les individus diffèrent en termes de traits psychologiques tels que la personnalité et l’humeur.
Il ajoute que l’écriture et la parole libres peuvent être un outil précieux pour comprendre la personnalité. Grâce à l’IA générative, les chercheurs peuvent désormais analyser ce type de données rapidement et précisément, d’une manière inédite.
Limites et perspectives de l’étude

Parallèlement, d’importantes questions demeurent. L’étude s’est appuyée sur l’auto-évaluation de la personnalité par les participants et n’a pas testé la capacité de l’IA à se comparer aux jugements de leurs proches, ni comment les résultats pourraient varier selon l’âge, le sexe ou l’origine ethnique.
Les chercheurs ignorent encore si l’IA et les humains se basent sur les mêmes signaux, ou si l’IA pourrait un jour surpasser les auto-évaluations pour prédire des aspects importants de la vie comme les relations, l’éducation, la santé ou la réussite professionnelle.
« L’étude montre que l’IA peut déceler de manière fiable des traits de personnalité à partir du langage courant, ouvrant ainsi une nouvelle voie dans la compréhension de la psychologie humaine », déclare Colin Vize, professeur adjoint de psychologie à l’Université de Pittsburgh.
Whitney Ringwald, professeure adjointe de psychologie à l’Université du Minnesota, affirme que les résultats « soulignent vraiment à quel point notre personnalité imprègne tout ce que nous faisons, même nos expériences quotidiennes les plus banales et nos pensées fugitives. »

Cette étude illustre donc le potentiel inédit de l’IA pour analyser et comprendre la personnalité humaine à travers le langage quotidien. Si ces technologies ne remplacent pas l’intuition et le jugement humain, elles offrent un outil puissant pour mieux se connaître et explorer les liens entre nos pensées, nos émotions et nos comportements.
À mesure que la recherche progresse, l’IA pourrait devenir un allié précieux pour la psychologie, tout en posant des questions éthiques importantes sur la confidentialité et l’usage de nos données personnelles.
Mais attention :
il y a eu des cas et de nombreuses alertes concernant l’utilisation de l’IA pour aider psychologiquement des personnes, en particulier lorsqu’elles l’utilisent comme s’il s’agissait d’un outil de thérapie ou de soutien émotionnel :
Des experts et associations professionnelles comme l’American Psychological Association ont mis en garde contre l’usage d’IA grand public (comme ChatGPT) pour des problèmes de santé mentale, car ces systèmes ne respectent pas les normes éthiques de la psychologie, peuvent donner des conseils incorrects ou renforcer des pensées nocives, et manquent de vigilance en cas de crise (par exemple idées suicidaires).
Il existe des risques de dépendance émotionnelle, d’isolement social ou de retard à consulter un professionnel qualifié, parce que l’IA peut offrir une « présence » 24 h/24 sans jugement, mais sans empathie réelle ni prise en charge clinique.
Dans certains pays et états, des régulations sont déjà en place ou en discussion pour restreindre l’usage d’IA dans le domaine de la santé mentale, notamment parce que des cas tragiques ont été rapportés où des interactions avec des chatbots ont pu contribuer à des issues très négatives chez des personnes vulnérables.
Des études ont aussi montré que discuter fréquemment avec des chatbots pourrait être associé à un risque accru de symptômes dépressifs ou affectifs chez certaines personnes, bien que le lien de causalité reste étudié.
Utiliser l’IA comme outil d’écoute ou de réflexion peut parfois sembler utile, mais ce n’est pas un substitut à une thérapie professionnelle, et dans des situations de crise ou de souffrance intense, cela peut être inefficace, voire dangereux si on s’y fie sans précautions.
Ces résultats sont publiés dans la revue Nature Human Behavior . Source :
Université du Michigan

