Retour à Histoires
HISTOIRES

Questions-réponses avec Pattie Maes : « Nous n’avons pas besoin de tout simplifier pour tout le monde »

31 mars 2025
Ceci est une photo de Pattie Maes, professeur d'arts et de sciences médiatiques au MIT Media Lab
Professeur Pattie Maes, MIT Media Lab

Nous nous entretenons avec Pattie Maes, professeure d'arts et de sciences médiatiques au MIT Media Lab, dans le cadre d'une série d'entretiens avec les contributeurs du Rapport d'actualité 2025 de l'UER : Les salles de rédaction de premier plan à l'ère de l'IA générative.

L'auteure principale et intervieweuse est le Dr Alexandra Borchardt.

Le rapport d'actualité 2025 de l'UER sera disponible en téléchargement complet à partir de mi-avril.

 

On dit souvent que l'IA peut stimuler la créativité. Les recherches que vous avez menées semblent suggérer le contraire. Pouvez-vous nous en parler ?

Vous faites référence à une étude dans laquelle nous avons demandé à des étudiants de rédiger une dissertation et de résoudre un problème de programmation.

Nous avions trois conditions : un groupe pouvait utiliser ChatGPT. Un autre groupe ne pouvait utiliser que la recherche sans les résultats de l'IA en haut. Et le troisième groupe ne disposait d'aucun outil.

Nous avons constaté que le groupe ayant utilisé ChatGPT rédigeait de bons essais, mais qu'ils exprimaient moins de diversité de pensée, étaient plus similaires et moins originaux.

Parce que les gens s'investissaient moins dans la tâche à accomplir ?

Nous l'avons également constaté dans d'autres expériences : les gens sont intrinsèquement paresseux. Lorsqu’ils utilisent l’IA, ils ne pensent pas autant par eux-mêmes. Et par conséquent, vous obtenez des résultats moins créatifs.

Cela pourrait poser problème si, par exemple, les programmeurs d'une entreprise utilisent tous le même copilote pour les aider à coder : ils ne trouveront pas de nouvelles façons de faire.

À mesure que les données d'IA alimentent de plus en plus de nouveaux modèles d'IA, vous obtiendrez de plus en plus de convergence et moins d'améliorations. innovation.  

Le journalisme se nourrit d'originalité. Quels conseils donneriez-vous aux responsables médias ?

La sensibilisation peut être utile. Mais il serait plus utile de construire ces systèmes différemment.  

Nous avons développé un système qui aide les gens à écrire, par exemple. Mais au lieu d'écrire à votre place, l'IA vous engage, tel un bon collègue ou un bon éditeur, en critiquant votre écriture et en vous suggérant parfois d'aborder un sujet sous un angle différent ou de renforcer une affirmation.

Il est important que la conception de l'IA incite les utilisateurs à contribuer à une solution plutôt que d'automatiser les choses à leur place.

Cela semble être un excellent conseil pour la gestion de contenu. Systèmes. 

Les systèmes actuels, prêts à l'emploi, utilisent une interface qui encourage les utilisateurs à dire : « Écrivez-moi une dissertation sur Y, assurez-vous qu'elle soit longue et qu'elle inclue ces points de vue. »

Ces systèmes sont conçus pour fournir un résultat complet. Nos systèmes d'édition disposent de correcteurs grammaticaux et orthographiques, mais nous pourrions intégrer une IA aux logiciels d'édition qui dirait : « Voici vos preuves ou arguments sont faibles. »

Cela pourrait encourager la personne à utiliser son cerveau et à faire preuve de créativité. Je crois que nous pouvons concevoir des systèmes qui nous permettent de tirer profit de l'intelligence humaine et artificielle.

Mais le génie n'est-il pas déjà sorti de la bouteille ? Si j'encourageais les étudiants qui utilisent ChatGPT à utiliser une version qui les met au défi, ils diraient probablement : « Oui, la prochaine fois, quand je n'aurai pas toutes ces échéances ».

Nous devrions concevoir des systèmes d'IA optimisés pour différents objectifs et contextes, comme une IA conçue comme un excellent éditeur ou une IA qui se comporte comme un excellent enseignant.

Un enseignant ne vous donne pas les réponses à tous les problèmes, car l'important n'est pas le résultat produit par la personne, mais plutôt qu'elle ait appris quelque chose au cours du processus.  

Mais si vous avez accès à une IA qui vous fait travailler plus dur et à une autre qui fait le travail à votre place, il est tentant d'utiliser cette dernière. 

L'IA agentique est un vaste sujet. Vous avez mené des recherches sur l’IA et les agents dès 1995. Comment votre point de vue a-t-il évolué depuis ?

À l'époque où je développais des agents logiciels pour vous aider dans vos tâches, nous n'avions rien de comparable aux grands modèles de langage actuels. Ils ont été conçus à la main pour un domaine d'application spécifique et étaient capables d'effectuer un apprentissage minimal auprès de l'utilisateur.

Les systèmes actuels sont censés être des IA (intelligence artificielle générale) ou s'en approcher et sont présentés comme des systèmes capables de tout faire pour nous.

Mais nos études révèlent qu'ils ne se comportent pas comme les humains. Ils ne font pas les mêmes choix, n'ont pas cette connaissance plus approfondie du contexte, cette conscience de soi et cette réflexion autocritique sur leurs actions que les humains ont.

Un problème majeur avec les systèmes agents est que nous pensons qu'ils sont intelligents et se comportent comme nous, alors que ce n'est pas le cas. Et ce n'est pas seulement parce qu'ils ont des hallucinations.

Mais nous voulons croire qu'ils se comportent comme des humains ?

Laissez-moi vous donner un exemple. Lorsque j'ai embauché un nouvel assistant administratif, je ne lui ai pas immédiatement accordé toute l'autonomie nécessaire pour agir à ma place.

Je me suis forgé une image mentale de lui à partir de l'entretien initial et de son CV. J'ai vu : « Oh, il a beaucoup travaillé dans la finance, mais il n'a pas beaucoup d'expérience en planification de voyages. » Alors, quand il fallait réserver un voyage, je lui disais : « Présente-moi les options disponibles pour que je puisse te dire ce qui compte pour moi et t'aider à faire un choix. »

Au fil du temps, mon modèle mental de l'assistant se développe, ainsi que le sien concernant mes besoins et mes préférences. En gros, nous apprenons à nous connaître. Il s'agit d'une expérience beaucoup plus interactive qu'avec les agents IA.  

Ces agents ne sont pas conçus pour vérifier et dire : « Je ne suis pas très sûr de moi pour prendre cette décision. » Alors, laissez-moi recueillir l'avis de mon utilisateur. » C'est un peu naïf de présenter les agents d'IA comme « prêts à être déployés, formidables et capables de tout faire ».

Il serait peut-être possible de créer des agents dotés du bon niveau de conscience de soi, de réflexion et de jugement, mais je n'ai pas entendu beaucoup de développeurs réfléchir ouvertement à ces questions. Et il faudra beaucoup de recherches pour y parvenir.

Vos recherches révèlent-elles autre chose sur les difficultés à laisser l'IA faire les choses à notre place ?

Nous avons mené des études sur la prise de décision avec l'IA. On s'attend à ce que les humains prennent de meilleures décisions s'ils sont soutenus par une IA entraînée sur de nombreuses données dans un domaine particulier.  

Mais des études ont montré que ce n'était pas le cas. Dans notre étude, nous avons laissé les gens décider si un titre de journal était une fausse nouvelle ou une vraie nouvelle. Nous avons constaté que lorsqu'il suffit d'un simple clic pour obtenir l'avis de l'IA, de nombreuses personnes se contentent d'utiliser ses résultats.

L'engagement et la réflexion sur le problème sont moins profonds, car c'est trop pratique. D'autres chercheurs ont obtenu des résultats similaires avec des expériences menées sur des médecins évaluant des diagnostics médicaux assistés par l'IA, par exemple.

Vous nous dites que les attentes en matière d'assistance à l'IA sont exagérées ?

Je suis un optimiste de l'IA. Je pense qu’il est possible d’intégrer l’IA dans nos vies de manière à ce qu’elle ait des effets positifs. Mais nous devons réfléchir davantage aux bonnes façons de l'intégrer.

Dans le cas des titres de journaux, une étude a montré que si l'IA vous incite d'abord à réfléchir à un titre et vous pose une question à ce sujet, cela améliore la précision des réponses des utilisateurs, et ils n'acceptent pas aveuglément les conseils de l'IA.

L'interface peut encourager les utilisateurs à être un peu plus attentifs. Plus attentif et critique.  

On dirait qu'il suffirait d'une petite correction technique.  

Il s'agit aussi de la façon dont l'IA est représentée. Nous parlons de ces systèmes comme de formes artificielles d’intelligence. On nous dit constamment que nous sommes très proches de l’AGI. Ces systèmes ne communiquent pas seulement de manière humaine, mais avec une grande confiance.

Tous ces facteurs nous incitent à les percevoir comme plus intelligents, plus compétents et plus humains qu'ils ne le sont en réalité. Mais ils sont plutôt ce qu'Emily Bender, professeure à l'Université de Washington, appelle des « perroquets stochastiques ».

Les LLM (grands modèles de langage) sont comme un perroquet qui vient d'entendre beaucoup de langage naturel en écoutant des gens parler et qui peut le prédire et l'imiter assez bien. Mais ce perroquet ne comprend pas de quoi il parle.

Présenter ces systèmes comme des perroquets plutôt que comme des assistants intelligents aiderait déjà à rappeler aux gens de penser constamment : « Oh, je dois être attentif. » Ces systèmes hallucinent. Ils ne comprennent pas vraiment. « Ils ne savent pas tout. »

Nous travaillons avec des entreprises d'IA sur certaines de ces questions. Par exemple, nous menons une étude avec OpenAI sur les robots compagnons et sur le risque de dépendance excessive aux chatbots pour de nombreuses personnes.

Ces entreprises sont engagées dans une course pour devenir les premières à utiliser l'IA générale, en levant le plus de fonds et en créant les modèles les plus performants. Mais je pense que l'on prend de plus en plus conscience que si nous voulons que l'IA réussisse, nous devons réfléchir attentivement à la manière dont nous l'intégrons dans la vie des gens.

Dans le secteur des médias, on nourrit de grands espoirs quant à la capacité de l'IA à aider le journalisme à devenir plus inclusif et à toucher un public plus large. Voyez-vous une chance que cela se produise ?

Ces espoirs sont fondés. Nous avons développé un système basé sur l'IA pour les enfants et les personnes âgées qui peuvent avoir des difficultés à traiter un langage que l'adulte moyen peut traiter.

Ce système fonctionne comme un traducteur intralinguistique : il prend une vidéo et la traduit dans un langage plus simple tout en préservant le sens.

Il existe de formidables possibilités de personnaliser le contenu en fonction des capacités et des besoins de chaque utilisateur. Mais en même temps, il faut garder à l'esprit que plus on personnalise les choses, plus chacun se retrouve dans sa bulle, surtout si on biaise les reportages en fonction de ses valeurs ou intérêts particuliers.

Il est important de conserver des médias, des informations et un langage communs, plutôt que de créer un public unique où chacun ne peut plus discuter des sujets qui nous intéressent.

Cela crée un lien. Pour revenir à votre argument précédent : la personnalisation pourrait rendre notre cerveau paresseux.

Il est possible de créer des systèmes d'IA qui produisent l'effet inverse et mettent légèrement l'utilisateur au défi. Ce serait comme être un parent qui ajuste inconsciemment son langage aux capacités actuelles de son enfant et introduit progressivement un langage et des idées plus complexes au fil du temps.  

Nous n'avons pas besoin de tout simplifier pour tout le monde. Nous devons réfléchir à l'impact de l'IA sur les individus, leur santé sociale et émotionnelle, ainsi qu'à l'impact de l'intelligence artificielle sur l'intelligence humaine naturelle et, in fine, sur notre société.

Et nous devrions en discuter avec tout le monde. À l’heure actuelle, notre avenir en matière d’IA est décidé par les ingénieurs et les entrepreneurs en IA, ce qui, à long terme, s’avérera être une erreur.

Liens et documents pertinents

Contact


Ben Steward

Senior Communications Officer

stewardb@ebu.ch