Les Risques de l’Intelligence Artificielle Générative
Parmi toutes les nouvelles technologies introduites ces dernières années dans les grandes industries, les solutions d’IA générative semblent avoir dominé la conscience collective internationale. Alors que le grand public discute souvent des effets sociétaux plus larges, tels que la diffusion de la désinformation en ligne et l’impact potentiel de l’IA sur la disponibilité des emplois, les dirigeants mondiaux et les chercheurs sont de plus en plus préoccupés par des menaces plus immédiates.
Les responsables du renseignement américain ont lancé l’alerte concernant les avancées rapides récentes en matière d’IA, qui pourraient dépasser la réglementation gouvernementale. En même temps, des études soutenues par Microsoft révèlent que 87 % des organisations britanniques sont exposées aux cyber-attaques alimentées par l’IA. Cette situation a contribué à un changement du paysage des menaces. Mais quels sont les usages malveillants spécifiques de l’IA générale qui préoccupent les experts?
Les Menaces Posées par Gen AI
Alors que le grand public peut considérer l’IA générative comme un outil excitant pour créer du contenu et optimiser les flux de travail, la réalité pour de nombreuses organisations est légèrement plus préoccupante. Avec la capacité de créer des fabrications convaincantes et de traiter de grandes quantités de données de manière autonome, les acteurs malveillants peuvent (et dans de nombreux cas ont déjà) infiltrer des systèmes autrefois impénétrables.
Dans les mains d’acteurs malveillants, les modèles d’IA générale ont la capacité de balayer et d’analyser l’ensemble des systèmes informatiques organisationnels, identifiant et exploitant les vecteurs d’attaque et les failles les plus prévalents. La principale préoccupation est la rapidité et la précision avec lesquelles de nombreux algorithmes modernes peuvent effectuer de telles fonctions, ouvrant la voie à des risques importants en matière de sécurité.
– Ingénierie sociale : les modèles Gen AI sont de plus en plus déployés pour créer de fausses informations d’identification, des fichiers audio et des séquences vidéo conçues pour piéger des cibles afin de partager des données privées et des mots de passe. Des études suggèrent que seuls 73 % des personnes peuvent détecter un discours généré par IA, et beaucoup sont incapables d’identifier de manière fiable des images fausses, ce qui signifie que l’accès à des systèmes à haut risque pourrait être aussi simple que de demander aux détenteurs de clés d’accès.
– Attaques physiques : jusqu’à 86 % des organisations industrielles auraient adopté des solutions IIoT (Internet des objets industriels) ces dernières années, ce qui signifie que des appareils connectés à Internet contrôlent actuellement un grand nombre de systèmes physiques. Le FBI a averti les législateurs d’attaques réelles visant à infiltrer des systèmes IIoT en utilisant des modèles Gen AI, dans le but de contourner les systèmes physiques et de détruire des infrastructures essentielles.
– Violations de données : selon des rapports récents, jusqu’à 55 % des événements de protection des données impliquent des utilisateurs saisissant des informations personnelles dans des outils d’IA générative, reflétant une utilisation généralisée inappropriée de cette technologie par le grand public. Ce risque devient encore plus préoccupant lorsque des pirates informatiques déploient intentionnellement des modèles d’IA générative pour accéder et exposer des informations confidentielles par des stratégies d’ingénierie sociale et des attaques par force brute pour contourner les protections traditionnelles en matière de cybersécurité.
– Vol de technologie : une préoccupation majeure pour de nombreuses organisations est la crainte que leurs propres modèles d’IA générative ne soient compromis et retournés contre elles, une menace qui s’est récemment concrétisée à travers des violations internes de systèmes bien connus. Si des acteurs malveillants venaient à accéder aux modèles d’IA développés par des agences de renseignement nationales, leurs capacités seraient considérablement renforcées, posant ainsi une menace en matière de sécurité.
Se Défendre Contre les Menaces Gen AI
Avec les cyber-attaques devenant une menace de plus en plus courante et attendue pour les organisations de la plupart des grandes industries, l’attention doit être portée sur les installations et les stratégies de défense intelligentes. Les parties prenantes doivent examiner les solutions existantes en matière de sécurité cybernétique et physique en gardant à l’esprit les processus intégrés à l’IA pour protéger de manière fiable les systèmes sensibles contre des menaces sophistiquées.
Si les organisations acceptent que les menaces Gen AI continueront probablement de peser sur les opérations dans les années à venir, les dirigeants et les équipes de sécurité doivent trouver des moyens fiables d’utiliser cette technologie à leur avantage. Des recherches publiées en 2023 suggèrent que 53 % des organisations reconnaissent le lien entre Gen AI et les risques de cybersécurité, bien que seuls 38 % soient censés atténuer activement ces menaces. Alors, comment l’IA peut-elle être utilisée comme outil de défense?
Détection et Réponse aux Menaces
Comme les modèles Gen AI peuvent analyser en continu de nouvelles informations et s’adapter aux changements identifiés dans les indices de menaces, les organisations peuvent utiliser proactivement ces outils pour protéger de manière anticipée leurs systèmes clés contre des attaques sophistiquées. Les solutions Gen AI peuvent être utilisées pour examiner de manière autonome les données historiques afin d’identifier des actions anormales qui pourraient signifier des risques nouveaux. Les systèmes peuvent alors modifier instantanément les configurations opérationnelles clés pour traiter de manière fiable les menaces émergentes en temps réel.
En positionnant des modèles Gen AI pour surveiller en continu l’activité du réseau à la recherche de signes de comportement inhabituel, les organisations peuvent garantir une action immédiate pour contenir et neutraliser les attaques. Ce concept est particulièrement important pour les organisations poursuivant une certaine forme de convergence de la sécurité cybernétique et physique, car les attaques peuvent être contenues avant que les cybercriminels ne puissent infiltrer les contrôles associés aux systèmes de sécurité physique et aux installations IIoT.
Génération de Correctifs de Vulnérabilité
Les modèles d’IA Gen utilisés par des entités malveillantes se reposent souvent sur l’analyse des systèmes internes d’une organisation pour identifier des vulnérabilités exploitables. Les équipes peuvent se défendre de manière proactive contre ce type d’attaque en déployant leurs propres outils d’IA Gen. Ces systèmes peuvent être conçus pour générer automatiquement des correctifs virtuels appropriés pour les vulnérabilités nouvellement découvertes.
Les modèles peuvent tirer parti de jeux de données internes et externes pour tester de manière appropriée les correctifs dans des environnements contrôlés. Cela garantit que les correctifs peuvent être appliqués et optimisés de manière autonome sans perturber les opérations critiques, compromettre les systèmes physiques ou entraîner des temps d’arrêt inutiles.
Sécurité Accrue des Identifiants
Les organisations peuvent utiliser des modèles Gen AI pour générer des informations d’identification falsifiées à des fins de test et d’optimisation. Par exemple, des données biométriques générées par l’IA, y compris la reconnaissance faciale et les modèles d’empreintes digitales, peuvent être créées pour former les systèmes internes à repérer des informations d’identification falsifiées. Ce même principe peut être appliqué aux tactiques basées sur du texte, aidant les dirigeants à apprendre aux employés à reconnaître les signes distinctifs des stratégies d’ingénierie sociale générative.
Conclusion
Les cyber-attaques sont une préoccupation croissante pour les gouvernements et les organisations du monde entier depuis de nombreuses années, bien que avec les avancées continues dans le domaine de l’IA générative, on s’attend à ce que de telles menaces deviennent de plus en plus sophistiquées. Ce risque est exacerbé par la routine de plus en plus courante de la convergence des systèmes de sécurité cybernétique et physique, 90 % des organisations mondiales estimant que les cyber-attaques représentent une menace pour les solutions de sécurité physique.
Pour que les dirigeants et le personnel de sécurité puissent atténuer de manière fiable l’impact malveillant de l’IA Gen sur le paysage des menaces cyber-physiques, les équipes doivent être prêtes à utiliser ces technologies à leur avantage. Les organisations peuvent protéger de manière fiable des actifs clés contre des attaques sophistiquées en exploitant le pouvoir de l’IA Gen pour surveiller en continu, adresser et prendre des mesures contre l’activité menaçante cybernétique.