L’intelligence artificielle risque de générer des menaces pour notre société

L’intelligence artificielle (IA) est une technologie en pleine expansion qui alimente les avancées majeures dans divers secteurs de l’industrie. Toutefois, l’IA générative suscite actuellement des inquiétudes majeures quant à ses effets potentiellement néfastes sur la société. Alors que le grand public discute souvent des implications sociales plus larges, comme la propagation de la désinformation en ligne et l’impact de l’IA sur la disponibilité des emplois, les responsables politiques et les chercheurs s’inquiètent de plus en plus des menaces immédiates.

Des responsables du renseignement américain ont sonné l’alarme, signalant que les récentes avancées rapides de l’IA pourraient dépasser la réglementation gouvernementale. Parallèlement, des études soutenues par Microsoft révèlent que 87 % des organisations britanniques sont exposées aux cyber-attaques alimentées par l’IA. Cette situation a entraîné une évolution du paysage des menaces. Mais quels sont les usages malveillants spécifiques de l’IA générale qui préoccupent les experts ?

Les menaces posées par l’IA générative

Alors que le grand public peut considérer l’IA générative comme un outil passionnant pour créer du contenu et simplifier les flux de travail, la réalité pour de nombreuses organisations est légèrement plus préoccupante. Avec la capacité de créer des fabrications convaincantes et de traiter de grandes quantités de données de manière autonome, des acteurs malveillants peuvent (et dans de nombreux cas l’ont déjà fait) infiltrer des systèmes autrefois inviolables.

Dans les mains d’acteurs malveillants, les modèles d’IA générale ont la capacité d’analyser et d’exploiter l’ensemble des systèmes informatiques organisationnels, identifiant et exploitant les vecteurs d’attaque et les vulnérabilités les plus courantes. La principale préoccupation réside dans la vitesse et la précision à laquelle de nombreux algorithmes modernes peuvent effectuer de telles fonctions, ouvrant la voie à des risques de sécurité significatifs.

– Ingénierie sociale : les modèles d’IA générative sont de plus en plus déployés pour créer de fausses identités, des fichiers audio et des séquences vidéo conçus pour tromper les cibles et leur faire partager des données privées et des mots de passe. Avec des études suggérant que seuls 73 % des personnes peuvent détecter la parole générée par l’IA, et beaucoup étant incapables d’identifier de manière fiable les fausses images, l’accès à des systèmes à haut risque peut désormais être aussi simple que de demander aux personnes clés d’accéder.
– Attaques physiques : jusqu’à 86 % des organisations industrielles sont censées avoir adopté des solutions Internet des objets industriels (IIoT) ces dernières années, ce qui signifie que des dispositifs connectés à Internet contrôlent actuellement un grand nombre de systèmes physiques. Le FBI a averti les législateurs des tentatives réelles d’infiltration de systèmes IIoT en utilisant des modèles d’IA générative, dans le but de contourner les systèmes physiques et de détruire les infrastructures essentielles.
– Violation de données : selon des rapports récents, jusqu’à 55 % des événements de perte de données impliquent des utilisateurs saisissant des informations personnelles identifiables dans des outils d’IA générative, reflétant l’usage généralisé de cette technologie par le grand public. Ce risque devient encore plus préoccupant lorsque des hackers déploient intentionnellement des modèles d’IA générative pour accéder et exposer des informations confidentielles via des stratégies d’ingénierie sociale et des attaques par la force brute pour contourner les protections traditionnelles en matière de cybersécurité.
– Vol de technologie : une préoccupation majeure pour de nombreuses organisations est la crainte que leurs propres modèles d’IA générative puissent être compromis et retournés contre elles, une menace qui s’est récemment concrétisée par des violations internes de systèmes renommés. Si des acteurs malveillants venaient à accéder aux modèles d’IA développés par des agences de renseignement nationales, leurs capacités seraient considérablement renforcées, posant une menace de sécurité significative.

Défendre contre les menaces d’IA générale

Avec les attaques cyber-physiques devenant une menace de plus en plus courante et attendue pour les organisations de la plupart des grands secteurs, l’attention doit être dirigée vers des installations et des stratégies de défense intelligentes. Les parties prenantes doivent examiner les solutions de sécurité cybernétique et physique existantes en gardant à l’esprit les processus infusés d’IA pour protéger de manière fiable les systèmes sensibles contre les menaces sophistiquées.

Si les organisations acceptent que les menaces d’IA générale continueront probablement d’avoir un impact sur les opérations au cours des prochaines années, les dirigeants et les équipes de sécurité doivent trouver des moyens fiables d’utiliser cette technologie à leur avantage. Des recherches publiées en 2023 suggèrent que 53 % des organisations reconnaissent la relation entre l’IA générative et les risques en matière de cybersécurité, bien que seuls 38 % seraient censés atténuer activement ces menaces. Alors, comment l’IA générale peut-elle être utilisée à des fins défensives ?

Détection et réponse aux menaces

Étant donné que les modèles d’IA générale peuvent analyser en continu de nouvelles informations et s’adapter aux changements identifiés dans les signaux de risque, les organisations peuvent utiliser proactivement ces outils pour protéger les systèmes centraux contre des attaques sophistiquées. Les solutions d’IA générale peuvent être utilisées pour examiner de manière autonome les données historiques afin d’identifier des actions anormales pouvant indiquer des risques nouveaux. Les systèmes peuvent ensuite modifier instantanément les configurations opérationnelles clés pour adresser de manière fiable les menaces en évolution en temps réel.

En positionnant les modèles d’IA générale pour surveiller en continu l’activité du réseau à la recherche de signes de comportement anormal, les organisations peuvent garantir que des mesures immédiates sont prises pour contenir et neutraliser les attaques. Le concept est particulièrement important pour les organisations poursuivant une certaine forme de convergence entre la sécurité physique et la cybersécurité, car des attaques peuvent être contenues avant que les cybercriminels ne parviennent à infiltrer les contrôles associés aux systèmes de sécurité physique et aux installations IIoT.

Génération de correctifs de vulnérabilité

Les modèles d’IA générale utilisés par des entités malveillantes s’appuient souvent sur l’analyse des systèmes internes d’une organisation pour identifier les vulnérabilités exploitables. Les équipes peuvent se défendre de manière proactive contre ce type d’attaque en déployant leurs propres outils d’IA générale. Ces systèmes peuvent être conçus pour générer automatiquement des correctifs virtuels appropriés pour les vulnérabilités nouvellement découvertes.

Les modèles peuvent puiser dans des ensembles de données internes et externes pour tester de manière appropriée les correctifs dans des environnements contrôlés. Cela garantit que les correctifs peuvent être appliqués et optimisés de manière autonome sans interférer avec les opérations critiques, compromettre les systèmes physiques ou causer des temps d’arrêt inutiles.

Sécurité renforcée des identifiants

Les organisations peuvent utiliser les modèles d’IA générale pour générer des identifiants falsifiés à des fins de test et d’optimisation. Par exemple, des données biométriques générées par IA, y compris des schémas de reconnaissance faciale et d’empreintes digitales, peuvent être créées pour former les systèmes internes à repérer des identifiants falsifiés. Ce même principe peut être appliqué aux tactiques basées sur le texte, aidant les dirigeants à enseigner aux employés les signes révélateurs des stratégies d’ingénierie sociale générées par IA.

Conclusion

Les cyberattaques sont une préoccupation croissante pour les gouvernements et les organisations du monde entier depuis de nombreuses années, mais avec les avancées continues dans le domaine de l’IA générative, il est prévu que de telles menaces deviennent de plus en plus sophistiquées. Ce risque est encore exacerbé par la fréquence accrue de la convergence entre les systèmes de sécurité physique et cybernétique, 90 % des organisations mondiales estimant que les cyberattaques constituent une menace pour les solutions de sécurité physique.

Pour les dirigeants et le personnel de sécurité de pouvoir atténuer de manière fiable l’impact malveillant de l’IA générale sur le paysage des menaces cyber-physiques, les équipes doivent être prêtes à utiliser ces technologies à leur avantage. Les organisations peuvent protéger de manière fiable leurs actifs clés contre des attaques sophistiquées en exploitant la puissance de l’IA générale pour surveiller en continu, adresser et agir contre l’activité des menaces cybernétiques.