Selon une étude de l’Associated Press (AP), près de trois quarts des personnes travaillant dans l’industrie de l’information ont utilisé l’intelligence artificielle générative (IA) à un certain niveau professionnel. L’utilisation la plus courante de l’IA était pour la production de contenu, avec près de 70 % des répondants affirmant l’avoir utilisée à cette fin. Les autres utilisations les plus populaires étaient la collecte d’informations, la production de contenu multimédia et les tâches commerciales. Malgré cette popularité, l’AP a constaté que les personnes travaillant dans l’industrie de l’information ont des préoccupations importantes concernant l’IA générative et que leurs employeurs ont mis en place des mesures de précaution de manière inégale.

L’étude de l’AP sur l’IA générative dans le journalisme a interrogé des professionnels de l’industrie de l’information sur la manière dont ils utilisent l’IA dans leur travail et quelles sont les implications pratiques et éthiques de ces technologies. L’AP a reçu 292 réponses à son enquête, qui a été menée à la fin de l’année 2023, représentant une gamme de rôles dans l’industrie.

L’étude a révélé que l’utilisation de l’IA par l’industrie de l’information était courante de nos jours, mais que de nombreuses personnes aspirent à l’utiliser davantage “si elle était capable de produire des résultats de qualité”. C’est le langage qui a été utilisé dans l’enquête et c’est la question au cœur des sentiments mitigés de l’industrie de l’information sur la technologie.

L’IA générative fonctionne en analysant des modèles dans de grands ensembles de données et en apprenant à générer de nouvelles données avec les modèles qu’elle observe dans ses matériaux sources. En termes simples, elle apprend du contenu (comme du texte, des images ou des vidéos) créé par des humains et crée ensuite un nouveau contenu qui ressemble presque à un contenu humain. Le problème fondamental de ce processus est qu’il est opaque et que ses entrées sont inconnues.

Certaines des tâches que l’IA peut effectuer pour les salles de presse offrent des avantages extraordinaires avec des risques faibles pour l’exactitude des informations. Parmi celles-ci figurent la transcription de longues conversations, la résumé des données et la rédaction de titres. Cependant, d’autres tâches que les salles de presse délèguent à l’IA soulèvent des préoccupations sérieuses. La collecte d’informations, par exemple, est une faiblesse connue des chatbots, qui hallucinent souvent des faussetés et les présentent comme des faits. En fin de compte, seuls les humains peuvent se rendre sur le terrain et observer des événements réels. Il n’y a pas de remplacement numérique pour le reportage sur le terrain.

Dans un document de travail pour le Tow Center for Digital Journalism de Columbia, Felix Simon a suggéré qu’il s’agit d’un moment crucial pour le journalisme, mais que l’IA n’a pas besoin d’être une menace existentielle si nous sommes intentionnels dans sa mise en œuvre.

Simon a écrit que l’IA “constitue principalement un renouvellement des actualités plutôt qu’un changement fondamental dans les besoins et les motivations des organisations de presse. Elle n’affecte pas le besoin fondamental d’accéder et de rassembler des informations, de les traiter en « actualités », de toucher les publics existants et nouveaux, et de gagner de l’argent”.

L’intelligence artificielle que nous utilisons aujourd’hui existe depuis environ 2018, mais elle n’est devenue largement connue et accessible au public qu’à la fin de 2022 avec la sortie de ChatGPT, une interface d’OpenAI qui répondait aux commandes des utilisateurs. Depuis lors, Google, Meta, Microsoft et d’autres ont lancé leurs propres produits d’IA générative et beaucoup d’autres ont commencé à intégrer la technologie dans les produits existants. Dès le début, l’IA générative a démontré une fiabilité d’exactitude peu fiable et un défi pour la véracité et l’attribution des sources.

L’AP a constaté que les personnes travaillant dans l’industrie des actualités étaient conscientes de ces inquiétudes, mais que leurs organisations adoptaient des approches inégales pour les aborder.

Selon Kelly McBride de Poynter, c’est un problème.

“Chaque salle de presse doit adopter une politique éthique pour guider l’utilisation de l’intelligence artificielle générative”, a écrit McBride dans Poynter. “Parce que la seule façon de créer des normes éthiques dans une profession non réglementée est de le faire boutique par boutique.”

La plupart des grandes organisations de presse ont maintenant établi leur propre ensemble de principes pour l’utilisation de l’IA, mais cela ne concerne que la surface des sources d’actualités sur Internet. Poynter propose désormais un modèle pour les médias qui veulent commencer. Une autre ressource est la Charte de Paris, initiée par Reporters Sans Frontières et qui reflète les contributions de 32 spécialistes des médias de 20 pays différents.

Les écueils de se précipiter et de manier de façon imprudente l’IA ne sont pas difficiles à repérer. Microsoft a été l’un des premiers adeptes à confier la production de nouvelles de l’homme à cette technologie et, comme l’a rapporté CCN, les résultats ont été désastreux. Avec l’aide de l’IA, Microsoft a publié de fausses histoires, publié des titres offensants et a alimenté des conspirations de désinformation électorale.

Alors que les conflits secouent plusieurs régions du monde aujourd’hui et que des dizaines d’élections conséquentes sont prévues dans les mois à venir, les enjeux pour les salles de presse resteront élevés.

“Le pouvoir perturbateur de l’intelligence artificielle (IA) va balayer l’espace de l’information cette année à un moment de volatilité politique et économique intense dans le monde entier”, a écrit Nic Newman pour le rapport annuel du Reuters Institute for the Study of Journalism sur les tendances. “S’approprier le meilleur de l’IA tout en gérant ses risques sera le fil conducteur de l’année à venir.”