De nos jours, avec l’émergence de nouvelles technologies révolutionnaires dans divers secteurs, les solutions d’intelligence artificielle générative semblent dominer la conscience collective internationale. Alors que le grand public discute souvent des effets sociétaux plus larges, tels que la diffusion de désinformation en ligne et l’impact que l’IA pourrait avoir sur la disponibilité des emplois, les dirigeants mondiaux et les chercheurs sont de plus en plus préoccupés par des menaces plus immédiates.
Les responsables du renseignement américain ont tiré la sonnette d’alarme, indiquant que les récents progrès rapides de l’IA pourraient dépasser la réglementation gouvernementale. Dans le même temps, des études soutenues par Microsoft révèlent que 87% des organisations britanniques sont exposées à des cyberattaques alimentées par l’IA. Cette situation a conduit à une évolution du paysage des menaces. Mais quels sont les cas spécifiques d’utilisation malveillante de l’IA générale qui préoccupent les experts ?
Les Menaces Posées par l’IA Générative
Alors que le grand public peut considérer l’IA générative comme un outil passionnant pour créer du contenu et rationaliser les flux de travail, la réalité pour de nombreuses organisations est légèrement plus inquiétante. Avec la capacité de créer des fabrications convaincantes et de traiter de grandes quantités de données de manière autonome, des acteurs malveillants peuvent (et dans de nombreux cas l’ont déjà fait) infiltrer des systèmes autrefois impénétrables.
Entre les mains d’acteurs malveillants, les modèles d’IA générale ont la capacité d’analyser et d’exploiter entièrement des systèmes informatiques organisationnels, identifiant et exploitant les vecteurs d’attaque et vulnérabilités les plus courants. La principale préoccupation réside dans la rapidité et la précision avec lesquelles de nombreux algorithmes modernes peuvent réaliser de telles fonctions, ouvrant la porte à des risques importants.
– Ingénierie sociale : Les modèles d’IA générale sont de plus en plus déployés pour créer de faux justificatifs, des fichiers audio et des séquences vidéo conçus pour tromper les cibles afin de partager des données privées et des mots de passe. Des études suggèrent que seuls 73% des personnes peuvent détecter la parole générée par l’IA, et beaucoup ne parviennent pas à identifier de manière fiable les images falsifiées. Gagner l’accès à des systèmes à haut risque pourrait maintenant être aussi simple que de demander accès aux détenteurs de clés.
– Attaques physiques : Selon une étude, jusqu’à 86% des organisations industrielles auraient adopté des solutions d’Internet des Objets Industriels (IIoT) ces dernières années, signifiant que des dispositifs connectés à Internet contrôlent actuellement un grand nombre de systèmes physiques. Le FBI a averti les législateurs de tentatives réelles d’infiltration de systèmes IIoT en utilisant des modèles d’IA générale, avec l’intention de contourner les systèmes physiques et de détruire les infrastructures essentielles.
– Violations de données : Rapports récents indiquent que jusqu’à 55% des événements de perte de données impliquent des utilisateurs introduisant des informations personnellement identifiables dans des outils d’IA générative, reflétant une utilisation généralisée et abusive de cette technologie par le grand public. Ce risque devient encore plus inquiétant lorsque des pirates informatiques déployent intentionnellement des modèles d’IA générale pour accéder et exposer des informations confidentielles à travers des stratégies d’ingénierie sociale et des attaques par force brute pour contourner les protections traditionnelles en matière de cybersécurité.
– Vol de technologie : Une préoccupation majeure pour de nombreuses organisations est la crainte que leurs propres modèles d’IA générale puissent être compromis et retournés contre elles, une menace qui s’est récemment concrétisée par des violations internes de systèmes bien connus. Si des acteurs malveillants parvenaient à accéder aux modèles d’IA développés par les agences de renseignement nationales, leurs capacités seraient considérablement renforcées, représentant une menace sérieuse pour la sécurité.
Défense Contre les Menaces liées à l’IA Générative
Avec les attaques cyber-physiques devenant une menace de plus en plus courante et attendue pour les organisations dans la plupart des secteurs, l’attention doit être portée aux installations de défense intelligentes et aux stratégies. Les parties prenantes doivent revoir les solutions de sécurité physique et cybersécurité existantes en tenant compte des processus basés sur l’IA pour protéger de manière fiable les systèmes sensibles contre les menaces sophistiquées.
Si les organisations doivent accepter que les menaces liées à l’IA générative continueront probablement d’affecter les opérations dans les années à venir, les dirigeants et les équipes de sécurité doivent trouver des moyens fiables d’utiliser cette technologie à leur avantage.
La détection et la réponse aux menaces : Puisque les modèles d’IA générative peuvent analyser continuellement de nouvelles informations et s’adapter aux changements identifiés dans les signaux de menace, les organisations peuvent utiliser de manière proactive ces outils pour protéger les systèmes centraux contre les attaques sophistiquées. Les solutions d’IA générative peuvent être utilisées pour revoir de manière autonome les données historiques, identifier les actions anormales qui pourraient indiquer des risques nouveaux. Les systèmes peuvent alors instantanément modifier les configurations opérationnelles clés pour adresser de manière fiable les menaces évolutives en temps réel.
En positionnant des modèles d’IA générative pour surveiller continuellement l’activité du réseau à la recherche de signaux de comportement inhabituel, les organisations peuvent garantir que des mesures immédiates sont prises pour contenir et neutraliser les attaques. Ce concept est particulièrement important pour les organisations cherchant un certain degré de convergence entre la cybersécurité et la sécurité physique, car les attaques peuvent être contenues avant que les cybercriminels ne puissent infiltrer les contrôles associés aux systèmes de sécurité physique et aux installations IIoT.
Génération de correctifs pour les vulnérabilités : Les modèles d’IA générative utilisés par des entités malveillantes reposent souvent sur l’analyse des systèmes internes d’une organisation pour identifier les vulnérabilités exploitables. Les équipes peuvent se défendre de manière proactive contre ce type d’attaque en déployant leurs propres outils d’IA générative. Ces systèmes peuvent être conçus pour générer automatiquement des correctifs virtuels appropriés pour les vulnérabilités nouvellement découvertes.
Les modèles peuvent utiliser des ensembles de données internes et externes pour tester correctement les correctifs dans des environnements contrôlés. Cela garantit que les correctifs peuvent être appliqués et optimisés de manière autonome sans perturber les opérations critiques, compromettre les systèmes physiques ou entraîner des temps d’arrêt inutiles.
Sécurité améliorée des identifiants : Les organisations peuvent utiliser des modèles d’IA générative pour générer des justificatifs falsifiés à des fins de test et d’optimisation. Par exemple, des données biométriques générées par IA, y compris des schémas de reconnaissance faciale et d’empreintes digitales, peuvent être créées pour former les systèmes internes à repérer des justificatifs falsifiés. Ce même principe peut être appliqué à des tactiques basées sur du texte, aidant les dirigeants à apprendre aux employés à repérer les signes distinctifs des stratégies d’ingénierie sociale générées par IA.
Conclusion
Les cyberattaques sont une préoccupation croissante pour les gouvernements et les organisations du monde entier depuis de nombreuses années, bien que avec les progrès continus dans le domaine de l’IA générative, il est prévu que de telles menaces deviennent de plus en plus sophistiquées. Ce risque est exacerbé par l’augmentation de la convergence des systèmes de sécurité physique et cybernétique, 90% des organisations mondiales estimant que les cyberattaques sont une menace pour les solutions de sécurité physique.
Pour que les dirigeants et le personnel de sécurité atténuent de manière fiable l’impact malveillant de l’IA générative sur le paysage des menaces cyber-physiques, les équipes doivent être prêtes à utiliser ces technologies à leur avantage. Les organisations peuvent protéger de manière fiable des actifs clés contre des attaques sophistiquées en exploitant la puissance de l’IA générative pour surveiller, adresser et prendre des mesures contre les activités de menaces cybernétiques.