La confiance du public en l’intelligence artificielle (IA) semble évoluer dans une direction contraire aux attentes des entreprises telles que Google, OpenAI et Microsoft, comme le suggère une récente enquête basée sur les données d’Edelman.

Les résultats de l’étude montrent que la confiance dans les entreprises développant et commercialisant des outils d’IA est passée à 53 %, contre 61 % il y a cinq ans. Si le déclin est moins prononcé dans les pays moins développés, aux États-Unis, il est encore plus marqué, passant de 50 % à seulement 35 %.

Il nous est dit que l’IA va guérir les maladies, nettoyer les dégâts que nous causons à l’environnement, nous aider à explorer l’espace et créer une société plus juste. Alors, quelle est la cause de ce déclin de confiance? Est-ce juste un problème d’image? Et que pouvons-nous faire à ce sujet si nous croyons que cette technologie a clairement un énorme potentiel pour faire le bien si elle est mise en œuvre de manière éthique et centrée sur l’humain?

Pourquoi la confiance en l’IA est-elle essentielle?

Tout d’abord, que signifie le terme « confiance » en ce qui concerne l’IA? Eh bien, il ne s’agit pas seulement de faire confiance à l’IA pour nous donner les bonnes réponses. Il s’agit d’une confiance plus large que la société accorde à l’IA. Cela signifie également se demander si nous faisons confiance à ceux qui créent et utilisent des systèmes d’IA pour le faire de manière éthique, avec nos meilleurs intérêts à cœur.

Prenons par exemple les voitures autonomes. Malgré les assurances des fabricants selon lesquelles elles seraient une vue commune sur nos routes dès la première moitié de cette décennie, cela ne s’est pas encore produit. Il semble probable que cela soit dû à un manque de confiance à la fois de la part des régulateurs, qui ont mis du temps à approuver la législation, et du grand public, qui exprime encore une certaine hésitation.

D’autres études ont montré que la confiance du public envers l’IA varie en fonction du cas d’utilisation. Cette étude de KPMG, par exemple, réalisée fin 2023, suggère que les projets liés aux ressources humaines sont ceux auxquels on fait le moins confiance, tandis que les projets dans le domaine de la santé sont plus susceptibles d’être approuvés.

Il est important de se rappeler, cependant, que la confiance est fondamentale pour obtenir le soutien généralisé nécessaire à l’intégration de l’IA dans les cas d’utilisation les plus révolutionnaires. Le danger est qu’un manque de confiance envers l’IA pourrait freiner les progrès, entravant le potentiel de l’IA à résoudre des problèmes concrets.

La construction d’un écosystème d’IA digne de confiance

Bien sûr, la manière la plus simple d’aborder ce défi est que pour que les gens fassent confiance à l’IA, elle doit être digne de confiance. Cela signifie qu’elle doit être mise en œuvre de manière éthique, en tenant compte de son impact sur nos vies et la société.

Aussi important que d’être fiable est d’être perçu comme fiable. C’est pourquoi le principe de l’IA transparente est si important. Une IA transparente signifie construire des outils, des processus et des algorithmes comprenables aux non-experts. Si nous allons faire confiance à des algorithmes pour prendre des décisions qui pourraient affecter nos vies, nous devons, au moins, être capables d’expliquer pourquoi ils prennent ces décisions. Quels facteurs sont pris en compte? Et quels sont leurs priorités?

Si l’IA a besoin de la confiance du public (et c’est le cas), alors le public doit être impliqué dans cet aspect de la gouvernance de l’IA. Cela signifie rechercher activement leurs avis et commentaires sur l’utilisation de l’IA (et, tout aussi important, quand elle ne devrait pas être utilisée). Idéalement, cela doit se faire à la fois au niveau démocratique, via des représentants élus, et au niveau de base.

Enfin, l’IA doit également être sécurisée. C’est pourquoi nous avons récemment observé un mouvement vers une IA privée – une IA qui n’est pas hébergée et traitée sur d’énormes serveurs de données publics comme ceux utilisés par ChatGPT ou Google Gemini.

La transparence, la responsabilité et la sécurité sont tous fondamentaux pour le concept d’IA digne de confiance. De plus en plus, je pense que nous constaterons que tout projet d’IA qui néglige l’un de ces principes a de fortes chances de trébucher dès le premier obstacle – l’acceptation du public.

L’avenir de l’IA digne de confiance

Je crois fermement que l’IA a un potentiel énorme pour être une force transformatrice pour le bien dans le monde. Cependant, il est également clair qu’elle pourrait causer beaucoup de dommages. Ce « côté sombre » de l’IA comprend son potentiel de propagation de la peur et de la désinformation, ou de saper les processus démocratiques à travers des deepfakes, en permettant des cyberattaques et des menaces de sécurité plus sophistiquées que tout ce qui a été vu jusqu’à présent.

Même s’il n’y a pas d’intention malveillante, des initiatives mal exécutées pourraient aboutir à renforcer des biais et discriminations, ou à porter atteinte à la vie privée et aux libertés personnelles.

Naviguer dans ces eaux dangereuses exigera un effort collaboratif de grande envergure pour garantir que l’IA est mise au service du bien supérieur de l’humanité et de la planète.

Bien sûr, étant donné les sommes d’argent en jeu – estimées à des milliards de dollars – cela ne sera pas toujours facile. Il y aura toujours la tentation de prendre des raccourcis ou de contourner les problèmes éthiques dans la course pour être les premiers sur le marché. Mais le faire ne fera probablement que créer des problèmes qui entraveront l’ensemble de l’industrie de l’IA et nuiront encore davantage à la confiance du public dans le secteur. Et à long terme, cela ne sera probablement bénéfique ni pour eux ni pour le monde.