L’utilisation de l’intelligence artificielle générative (IA) dans l’industrie des médias continue d’être un sujet brûlant, comme en témoigne une récente étude de l’Associated Press (AP). Selon cette étude, près de trois quarts des personnes travaillant dans le secteur de l’information ont eu recours à l’IA générative à un moment donné dans le cadre de leur profession. La principale utilisation de l’IA était la production de contenu, avec près de 70 % des répondants déclarant l’avoir utilisée à cette fin. Les autres utilisations les plus populaires étaient la collecte d’informations, la production de contenu multimédia et les tâches commerciales. Malgré sa popularité croissante, l’AP a constaté que les professionnels de l’industrie des médias ont des préoccupations importantes concernant l’IA générative et que leurs employeurs ont mis en place des mesures de précaution de manière inégale.

L’étude Generative AI in Journalism de l’AP a interrogé des professionnels du secteur des médias sur la manière dont ils utilisent l’IA dans leur travail et quelles sont les implications pratiques et éthiques de ces technologies. L’AP a reçu 292 réponses à son enquête, menée à la fin de l’année 2023, représentant une gamme de rôles dans l’industrie.

L’IA générative fonctionne en analysant des modèles dans de grands ensembles de données et en apprenant à générer de nouvelles données en fonction des modèles observés dans ses matériaux sources. En termes simples, elle apprend du contenu (comme du texte, des images ou des vidéos) créé par des humains, puis crée du nouveau contenu qui semble presque humain. Le problème fondamental de ce processus est son opacité et le fait que ses entrées sont inconnues.

Certaines tâches que l’IA peut effectuer pour les salles de presse offrent des avantages extraordinaires avec des risques faibles pour l’exactitude de l’information. Il s’agit notamment de transcrire de longues conversations, de résumer des données et d’écrire des titres. Cependant, d’autres tâches déléguées à l’IA par les salles de rédaction soulèvent des préoccupations sérieuses. Par exemple, la collecte d’informations est une faiblesse connue des chatbots, qui « hallucinent » fréquemment des mensonges et les présentent comme des faits. En fin de compte, seuls les humains peuvent se rendre sur le terrain et observer les événements du monde réel. Il n’existe pas de remplacement numérique pour le journalisme d’investigation de terrain.

L’AI dont nous disposons aujourd’hui existe depuis environ 2018, mais elle n’est devenue largement connue et accessible au public qu’à la fin de l’année 2022 avec la sortie de ChatGPT, une interface d’OpenAI qui répondait aux requêtes des utilisateurs. Depuis lors, Google, Meta, Microsoft et d’autres ont lancé leurs propres produits d’IA générative et de nombreuses autres entreprises ont commencé à trouver des moyens d’intégrer la technologie dans des produits existants. Dès le début, l’IA générative a démontré une précision peu fiable et un défi en termes de sources et d’attribution.

L’AP a constaté que les professionnels travaillant dans l’industrie des médias étaient conscients de ces préoccupations, mais que leurs organisations adoptaient des approches inégales pour y remédier.

Selon Kelly McBride du Poynter Institute, c’est un problème. « Chaque salle de presse doit adopter une politique éthique pour guider l’utilisation de l’intelligence artificielle générative, car la seule façon de créer des normes éthiques dans une profession non réglementée est de le faire magasin par magasin. »La plupart des grandes organisations de presse ont désormais établi leur propre ensemble de principes pour l’utilisation de l’IA, mais cela ne concerne qu’une partie des sources d’information disponibles sur Internet. Poynter fournit désormais un modèle pour les médias qui souhaitent se lancer. Une autre ressource est la Charte de Paris, initiée par Reporters Sans Frontières et reflétant les contributions de 32 spécialistes des médias de 20 pays différents.

Les pièges de progresser trop rapidement et imprudemment avec l’IA ne sont pas difficile à repérer. Microsoft a été l’un des premiers adoptants à confier la production de nouvelles des humains à cette technologie et, comme l’a rapporté CNN, les résultats ont été désastreux. Avec l’aide de l’IA, Microsoft a publié de fausses histoires, des titres offensants et a alimenté des conspirations de désinformation électorales.

Alors que des conflits secouent plusieurs régions du monde aujourd’hui et que des dizaines d’élections importantes sont prévues dans les mois à venir, les enjeux pour les salles de presse resteront élevés. « Le pouvoir perturbateur de l’intelligence artificielle (IA) balayera l’espace de l’information cette année à un moment de volatilité politique et économique intense dans le monde entier, » écrit Nic Newman pour le rapport annuel des tendances de l’Institut Reuters pour l’étude du journalisme. « Adopter le meilleur de l’IA tout en gérant ses risques sera le fil conducteur de l’année à venir. »