L’intelligence artificielle (IA) a pris d’assaut les industries du monde entier ces dernières années, mais c’est surtout les solutions d’IA générative qui ont captivé l’attention collective internationale. Alors que le grand public discute souvent des effets sociétaux plus larges, tels que la propagation de fausses informations en ligne et l’impact de l’IA sur la disponibilité des emplois, les dirigeants mondiaux et les chercheurs commencent à s’inquiéter davantage des menaces plus immédiates.

Les responsables du renseignement américain ont tiré la sonnette d’alarme sur le fait que les récents progrès rapides de l’IA pourraient dépasser la réglementation gouvernementale. En parallèle, des études soutenues par Microsoft révèlent que 87% des organisations du Royaume-Uni sont exposées à des cyberattaques basées sur l’IA. Cette situation a entraîné un changement du paysage des menaces. Mais quelles utilisations malveillantes spécifiques de l’IA générale préoccupent les experts ?

Les menaces posées par l’IA générique

Alors que le grand public peut voir l’IA génératrice comme un outil passionnant pour créer du contenu et optimiser les flux de travail, la réalité pour de nombreuses organisations est légèrement plus préoccupante. Avec la capacité de créer des fabrications convaincantes et de traiter de grandes quantités de données de manière autonome, les acteurs malveillants peuvent (et dans de nombreux cas l’ont déjà fait) infiltrer des systèmes autrefois impénétrables.

Entre les mains des acteurs malveillants, les modèles d’IA générale ont la capacité de scanner et d’analyser l’ensemble des systèmes informatiques organisationnels, d’identifier et d’exploiter les vecteurs d’attaque et les vulnérabilités les plus prédominants. La principale préoccupation réside dans la vitesse et la précision avec lesquelles de nombreux algorithmes modernes peuvent effectuer de telles fonctions, ouvrant la voie à des risques de sécurité importants.

– Ingénierie sociale : les modèles d’IA générique sont de plus en plus utilisés pour créer de fausses identifiants, des fichiers audio et des séquences vidéo conçues pour tromper les cibles afin de partager des données privées et des mots de passe. Avec des études suggérant que seulement 73% des personnes peuvent détecter une parole générée par l’IA, et beaucoup étant incapables d’identifier de manière fiable des images fausses, l’accès à des systèmes à haut risque peut désormais être aussi simple que de demander aux détenteurs de clés l’accès.
– Attaques physiques : 86% des organisations industrielles auraient adopté des solutions de l’Internet Industriel des Objets (IIoT) ces dernières années, ce qui signifie que des dispositifs connectés à Internet contrôlent actuellement un grand nombre de systèmes physiques. Le FBI a averti les législateurs des tentatives réelles d’infiltration des systèmes IIoT par l’IA générique, dans le but de contourner les systèmes physiques et de détruire les infrastructures essentielles.
– Fuites de données : selon des rapports récents, jusqu’à 55% des événements de perte de données impliquent des utilisateurs introduisant des informations personnellement identifiables dans des outils d’IA générative, reflétant ainsi une utilisation généralisée inappropriée de cette technologie. Ce risque devient encore plus préoccupant lorsque des hackers déploient intentionnellement des modèles d’IA générative pour accéder et exposer des informations confidentielles.
– Vol de technologie : une préoccupation majeure pour de nombreuses organisations est la crainte que leurs propres modèles d’IA générique puissent être compromis et retournés contre elles. Avec leur accès à des modèles d’IA développés par des agences de renseignement nationales, les acteurs malveillants pourraient augmenter de manière significative leurs capacités, posant une menace sérieuse à la sécurité.

Se défendre contre les menaces de l’IA générique

Alors que les attaques cyber-physiques deviennent une menace de plus en plus courante et prévisible pour les organisations de la plupart des secteurs majeurs, l’attention doit être portée sur les installations et les stratégies défensives intelligentes. Les parties prenantes doivent revoir les solutions de sécurité physique et cybersécurité existantes en tenant compte des processus intégrés à l’IA pour protéger de manière fiable les systèmes sensibles contre des menaces sophistiquées.

Si les organisations doivent accepter que les menaces de l’IA générique continueront probablement d’impact leurs opérations dans les années à venir, les dirigeants et les équipes de sécurité doivent trouver des moyens fiables d’utiliser cette technologie à leur avantage. Les recherches publiées en 2023 suggèrent que 53% des organisations reconnaissent la relation entre l’IA générative et les risques en cybersécurité, bien que seules 38% soient réputées d’atténuer activement ces menaces.

– Détection et réponse aux menaces : les modèles d’IA générique peuvent analyser en continu de nouvelles informations et s’adapter aux changements identifiés dans les indicateurs de menace. Les organisations peuvent utiliser ces outils de manière proactive pour protéger leurs systèmes centraux contre des attaques sophistiquées.
– Génération de correctifs de vulnérabilité : les modèles d’IA générique utilisés par des entités malveillantes s’appuient souvent sur l’analyse des systèmes internes d’une organisation pour identifier des vulnérabilités exploitables. Les équipes peuvent se défendre de manière proactive contre ce type d’attaque en déployant leurs propres outils d’IA pour générer des correctifs virtuels appropriés.
– Sécurité renforcée des informations d’identification : les organisations peuvent utiliser les modèles d’IA générique pour générer des informations d’identification fabriquées à des fins de test et d’optimisation. Ce même principe peut être appliqué aux tactiques basées sur le texte, aidant les leaders à apprendre aux employés à repérer les contrefaçons d’informations d’identification générées par l’IA.

En conclusion, les cyberattaques sont une préoccupation croissante pour les gouvernements et les organisations à travers le monde depuis de nombreuses années. Avec les avancées continues dans le domaine de l’IA générative, on s’attend à ce que de telles menaces deviennent de plus en plus sophistiquées. Pour les dirigeants et les professionnels de la sécurité, il est crucial de se préparer à utiliser ces technologies à leur avantage pour contrer efficacement l’impact malveillant de l’IA générale sur le paysage des menaces cybersécuritaires et cyber-physiques.