Les Risques de l’Intelligence Artificielle Générative
Parmi toutes les nouvelles technologies introduites dans les industries majeures ces dernières années, les solutions d’IA générative semblent avoir dominé la conscience collective internationale. Alors que le grand public discute souvent des effets sociétaux plus larges, tels que la propagation de la désinformation en ligne et l’impact de l’IA sur la disponibilité des emplois, les dirigeants mondiaux et les chercheurs sont de plus en plus préoccupés par des menaces plus immédiates.
Les responsables du renseignement américain ont tiré la sonnette d’alarme concernant les récents progrès rapides de l’IA qui pourraient dépasser la réglementation gouvernementale. Dans le même temps, des études soutenues par Microsoft révèlent que 87% des organisations britanniques sont exposées au risque de cyberattaques alimentées par l’IA. Cette situation a entraîné un changement dans le paysage des menaces. Mais quels sont les usages malveillants spécifiques de l’IA générale qui préoccupent les experts?
Les Menaces Posées par l’IA Générative
Alors que le grand public perçoit souvent l’IA générative comme un outil passionnant pour créer du contenu et rationaliser les flux de travail, la réalité pour de nombreuses organisations est légèrement plus inquiétante. Avec la capacité de créer des fabrications convaincantes et de traiter de grandes quantités de données de manière autonome, les acteurs malveillants peuvent (et dans de nombreux cas l’ont déjà fait) infiltrer des systèmes autrefois impénétrables.
Entre les mains d’acteurs malveillants, les modèles d’IA générale ont la capacité d’analyser entièrement les systèmes informatiques organisationnels, d’identifier et d’exploiter les vecteurs d’attaque et les vulnérabilités les plus prévalents. La principale préoccupation réside dans la vitesse et la précision avec lesquelles de nombreux algorithmes modernes peuvent exécuter de telles fonctions, ouvrant la porte à d’importants risques en matière de sécurité.
– Ingénierie sociale – les modèles d’IA gén peuvent être utilisés pour créer de faux certificats, des fichiers audio et des séquences vidéo conçus pour tromper les cibles et les inciter à partager des données privées et des mots de passe. Avec des études suggérant que seulement 73% des personnes peuvent détecter la parole générée par l’IA, et beaucoup étant incapables d’identifier de manière fiable les images fausses, l’accès aux systèmes à haut risque peut maintenant être aussi simple que de demander aux détenteurs de clés l’accès.
– Attaques physiques – Jusqu’à 86% des organisations industrielles sont censées avoir adopté des solutions de l’Internet des objets industriels (IIoT) ces dernières années, ce qui signifie que des dispositifs connectés à Internet contrôlent actuellement un grand nombre de systèmes physiques. Le FBI a averti les législateurs des tentatives réelles d’infiltrer les systèmes IIoT en utilisant des modèles d’IA gén, dans le but de détourner les systèmes physiques et détruire les infrastructures essentielles. Dans des environnements simulés, ces attaques ont montré que les pirates informatiques pouvaient endommager des équipements physiques, entraînant des dysfonctionnements, des explosions et des incendies.
– Failles de données – Selon des rapports récents, jusqu’à 55% des événements de perte de données impliquent des utilisateurs saisissant des informations personnellement identifiables dans des outils d’IA générative, reflétant la mauvaise utilisation généralisée de cette technologie par le grand public. Ce risque devient encore plus préoccupant lorsque des hackers déploient intentionnellement des modèles d’IA gén pour accéder et exposer des informations confidentielles par le biais de stratégies d’ingénierie sociale et d’attaques par force brute pour contourner les protections traditionnelles en matière de cybersécurité.
– Vol de technologie – Une préoccupation majeure pour de nombreuses organisations est la crainte que leurs propres modèles d’IA gén puissent être compromis et retournés contre elles, une menace qui s’est concrétisée récemment par des violations internes de systèmes bien connus. Si des acteurs malveillants venaient à accéder aux modèles d’IA développés par des agences nationales de renseignement, leurs capacités seraient considérablement accrues, posant une menace au niveau de la sécurité.
Défense contre les Menaces de l’IA Générative
Avec les attaques cyber-physiques devenant une menace de plus en plus courante pour les organisations dans la plupart des secteurs majeurs, l’attention doit être portée vers des installations et des stratégies défensives intelligentes. Les parties prenantes doivent examiner les solutions de sécurité cybernétique et physique existantes en tenant compte des processus infusés par l’IA pour protéger de manière fiable les systèmes sensibles contre des menaces sophistiquées.
Si les organisations sont prêtes à accepter que les menaces de l’IA générative continueront probablement à impacter les opérations dans les années à venir, les dirigeants et les équipes de sécurité doivent trouver des moyens fiables d’utiliser cette technologie à leur avantage. Une recherche publiée en 2023 suggère que 53% des organisations reconnaissent la relation entre l’IA générative et les risques en matière de cybersécurité, bien que seulement 38% seraient activement en train de les atténuer. Alors, comment utiliser l’IA générative à des fins défensives?
Détection et Réponse aux Menaces
Comme les modèles d’IA gén peuvent analyser en continu de nouvelles informations et s’adapter aux changements identifiés dans les signaux de menace, les organisations peuvent utiliser de manière proactive ces outils pour protéger les systèmes essentiels contre des attaques sophistiquées. Les solutions d’IA gén peuvent être utilisées pour revoir de manière autonome les données historiques afin d’identifier des actions anormales qui pourraient signifier de nouveaux risques. Les systèmes peuvent ensuite modifier instantanément les configurations opérationnelles clés pour adresser de manière fiable les menaces en évolution en temps réel.
En positionnant les modèles d’IA gén pour surveiller en continu l’activité du réseau à la recherche de signes de comportements inhabituels, les organisations peuvent garantir que des actions immédiates sont prises pour contenir et neutraliser les attaques. Le concept est particulièrement important pour les organisations poursuivant des degrés de convergence physique et cybernétique, car les attaques peuvent être contenues avant que les cybercriminels ne parviennent à infiltrer les contrôles associés aux systèmes de sécurité physique et aux installations IIoT.
Génération de Correctifs pour les Vulnérabilités
Les modèles d’IA gén exploitées par des entités malveillantes se reposent souvent sur l’analyse des systèmes internes d’une organisation pour identifier les vulnérabilités exploitables. Les équipes peuvent se défendre de manière proactive contre ce type d’attaque en déployant leurs propres outils d’IA gén. Ces systèmes peuvent être conçus pour générer automatiquement des correctifs virtuels appropriés pour les vulnérabilités nouvellement découvertes.
Les modèles peuvent puiser dans des ensembles de données internes et externes pour tester de manière appropriée les correctifs dans des environnements contrôlés. Cela garantit que les correctifs peuvent être appliqués et optimisés de manière autonome sans compromettre les opérations critiques, compromettre les systèmes physiques ou entraîner des temps d’arrêt inutiles.
Sécurité Renforcée des Identifiants
Les organisations peuvent utiliser des modèles d’IA gén pour générer des identifiants fabriqués à des fins de test et d’optimisation. Par exemple, des données biométriques générées par l’IA, telles que la reconnaissance faciale et les empreintes digitales, peuvent être créées pour former les systèmes internes à repérer les identifiants fabriqués. Ce même principe peut être appliqué à des tactiques basées sur du texte, aidant les dirigeants à enseigner aux employés les signes distinctifs des stratégies d’ingénierie sociale générée par l’IA.
Conclusion
Les cyberattaques sont une préoccupation croissante pour les gouvernements et les organisations du monde entier depuis de nombreuses années, bien qu’avec les avancées continues dans le domaine de l’IA générative, il est prévu que de telles menaces deviennent de plus en plus sophistiquées. Ce risque est encore exacerbé par l’augmentation de la communauté des systèmes de sécurité physique et cybernétique convergés, 90% des organisations mondiales estimant que les cyberattaques représentent une menace pour les solutions de sécurité physique.
Pour que les dirigeants et le personnel de sécurité atténuent de manière fiable l’impact malveillant de l’IA générative sur le paysage des menaces cyber-physiques, les équipes doivent être prêtes à utiliser ces technologies à leur avantage. Les organisations peuvent protéger de manière fiable les actifs essentiels contre des attaques sophistiquées en exploitant la puissance de l’IA générative pour surveiller en continu, répondre, et prendre des mesures contre l’activité menaçante des cyber-menaces.