Le journalisme à l’heure de l’intelligence artificielle générative : défis et opportunités
Une étude menée par l’Associated Press (AP) révèle que près de trois quarts des professionnels travaillant dans le secteur de l’information ont utilisé l’intelligence artificielle générative (IA) à des fins professionnelles. L’utilisation la plus courante de l’IA était la production de contenu, avec près de 70% des répondants déclarant l’avoir utilisée à cette fin. Les autres utilisations les plus populaires étaient la collecte d’informations, la production de contenus multimédias et les tâches commerciales. Malgré sa popularité, l’AP a constaté que les personnes travaillant dans le secteur de l’information ont des préoccupations importantes concernant l’IA générative et que leurs employeurs ont mis en place des précautions de manière inégale.
L’étude de l’AP sur l’IA générative dans le journalisme a interrogé des professionnels du secteur de l’information sur la manière dont ils utilisent l’IA dans leur travail et quelles sont les implications pratiques et éthiques de ces technologies. L’AP a reçu 292 réponses à son enquête, menée à la fin de l’année 2023, représentant divers rôles dans le secteur.
L’utilisation de l’IA dans le secteur de l’information est courante aujourd’hui, mais de nombreuses personnes aspirent à l’utiliser davantage “s’il était capable de produire des résultats de qualité”. C’est le langage utilisé dans l’enquête et c’est la question au cœur des sentiments mitigés de l’industrie de l’information à l’égard de la technologie.
L’IA générative fonctionne en analysant les motifs dans de grands ensembles de données et en apprenant à générer de nouvelles données avec les motifs qu’elle observe dans ses matériaux sources. En termes simples, elle apprend du contenu (comme du texte, des images ou des vidéos) créé par des humains, puis crée un nouveau contenu qui semble presque fait par l’homme. Le problème fondamental de ce processus est qu’il est opaque et que ses entrées sont inconnues.
Certaines tâches que l’IA peut effectuer pour les salles de rédaction offrent des avantages extraordinaires avec peu de risques pour l’exactitude des informations. Il s’agit notamment de la transcription de longues conversations, de la résumé de données et de la rédaction de titres. Cependant, les autres tâches que les salles de rédaction délèguent à l’IA soulèvent des préoccupations sérieuses. La collecte d’informations, par exemple, est une faiblesse connue des chatbots, qui ont souvent des “hallucinations” de faussetés et les présentent comme des faits. En fin de compte, seuls les humains peuvent se rendre sur le terrain et observer des événements du monde réel. Il n’y a pas de remplacement numérique pour le journalisme d’investigation.
Dans un livre blanc du Tow Center for Digital Journalism à Columbia, Felix Simon suggère que nous sommes à un moment clé pour le journalisme, mais que l’IA n’a pas besoin d’être une menace existentielle si nous sommes intentionnels dans sa mise en œuvre.
Simon écrit que l’IA “constitue principalement un remaniement des actualités plutôt qu’un changement fondamental dans les besoins et les motivations des organisations de presse. Elle n’impacte pas le besoin fondamental d’accéder et de collecter des informations, de les traiter en ‘actualités’, d’atteindre les publics existants et nouveaux, et de gagner de l’argent”.
L’intelligence artificielle que nous utilisons aujourd’hui existe depuis environ 2018, mais elle n’est devenue largement connue et accessible au public que fin 2022 avec la sortie de ChatGPT, une interface de OpenAI qui répondait aux invitations des utilisateurs. Depuis lors, Google, Meta, Microsoft et d’autres ont lancé leurs propres produits d’IA générative et beaucoup d’autres ont commencé à trouver des moyens d’intégrer la technologie dans des produits existants. Dès le départ, l’IA générative a démontré une fiabilité peu fiable et un défi pour la recherche et l’attribution.
L’AP a constaté que les personnes travaillant dans le secteur de l’information étaient conscientes de ces préoccupations, mais que leurs organisations abordaient de manière inégale la question.
Selon Kelly McBride de Poynter, c’est un problème.
“Chaque salle de rédaction doit adopter une politique éthique pour guider l’utilisation de l’intelligence artificielle générative”, a écrit McBride dans Poynter. “Parce que le seul moyen de créer des normes éthiques dans une profession non réglementée est de le faire magasin par magasin.”
La plupart des grandes organisations de presse ont maintenant établi leur propre ensemble de principes pour l’utilisation de l’IA, mais cela ne concerne que la pointe de l’iceberg des sources d’information sur Internet. Poynter fournit désormais un modèle pour les médias qui souhaitent commencer. Une autre ressource est la Charte de Paris, lancée par Reporters sans frontières et qui reflète les contributions de 32 spécialistes des médias de 20 pays différents.
Les pièges de se précipiter trop rapidement et irréfléchi avec l’IA ne sont pas difficiles à repérer. Microsoft a été l’un des premiers adoptants à confier la production d’informations des humains à cette technologie et, comme l’a rapporté CCN, les résultats ont été désastreux. Avec l’aide de l’IA, Microsoft a publié de fausses histoires, a affiché des titres offensants et a alimenté des théories de désinformation électorale.
Alors que des conflits secouent plusieurs régions du monde aujourd’hui et que des dizaines d’élections importantes sont prévues dans les mois à venir, les enjeux pour les salles de rédaction resteront élevés.
“Le pouvoir perturbateur de l’intelligence artificielle (IA) balayera l’espace de l’information cette année à un moment de volatilité politique et économique intense dans le monde entier”, a écrit Nic Newman pour le rapport annuel sur les tendances de l’Institut Reuters pour l’étude du journalisme. “Adopter le meilleur de l’IA tout en gérant ses risques sera le fil conducteur de l’année à venir.”