L’essor de l’Intelligence Artificielle générative soulève de nouvelles questions pour ceux d’entre nous travaillant dans le secteur de l’assurance. Chaque jour, des personnes comme nous trouvent de nouvelles façons d’utiliser les capacités impressionnantes de cette technologie pour traiter de grandes quantités de textes, d’audio et de vidéo complexes, ainsi que pour générer des idées et des premiers jets exploitables dans ces trois formats.
Il n’y a pas non plus de pénurie de discussions sur les risques liés à l’utilisation de l’IA générative. Elle pose des risques uniques pour les assureurs tels que le biais, les hallucinations et les infractions à la propriété intellectuelle, pour n’en citer que quelques-uns. Ce sur quoi je vais me concentrer est le degré auquel ces risques sont pris en compte par les régulateurs et comment les assureurs peuvent assurer leur conformité aux réglementations en évolution sans sacrifier le potentiel extraordinaire d’innovation de l’IA générative.
La réglementation est-elle toujours un frein à l’innovation ? Absolument pas. Une réglementation bien conçue peut contribuer à façonner une économie digitale et une société prospères.
Prenez la régulation précoce de la téléphonie mobile digitale de l’UE par exemple. Dès 1987, l’UE a soutenu le protocole GSM pour les téléphones de deuxième génération, entraînant une transformation radicale des télécommunications européennes, déclenchant un cycle vertueux de concurrence accrue, d’investissements accrus, de nouvelles innovations, de baisses de prix et d’adoption accélérée.
Est-ce que la régulation de l’IA a déjà un impact sur le secteur de l’assurance ? Oui. C’est encore tôt, mais la forme probable de la régulation se précise, avec un accent mis sur la compréhension des risques de l’adoption de l’IA.
Concernant l’évaluation des risques, le secteur de l’assurance européen sera couvert par un projet de législation général – le projet de loi de l’UE sur l’IA – actuellement en cours d’élaboration mais probablement ratifié en 2024. Il catégorise les systèmes d’IA en fonction du niveau de risque : inacceptable, élevé, limité et minimal. La conformité dépend de l’évaluation correcte du niveau dans lequel un système d’IA se situe.
Regardons plus loin. Aux États-Unis, l’Association nationale des commissaires d’assurance (NAIC) a mis en place un groupe de travail sur l’intelligence artificielle pour examiner l’impact de l’IA sur l’industrie et élaborer des lignes directrices. Et le gouvernement britannique a publié un livre blanc sur l’IA décrivant sa propre approche réglementaire basée sur les risques.
Certaines aspects de la réglementation en matière d’IA sont déjà couverts par des mesures existantes. Les lois sur l’égalité empêchent la discrimination selon des caractéristiques définies, et la législation sur la protection des données garantit que les données personnelles sont traitées équitablement. De la même manière, dans de nombreux pays, les lois sur la sécurité des produits et les droits des consommateurs protègent déjà les consommateurs.
Six mesures pratiques de conformité pour les compagnies d’assurance
1. Soyez prêts pour le projet de loi de l’UE sur l’IA.
2. Pensez aux questions plus larges de l’adoption de l’IA.
3. Éduquez également vos clients sur la manière dont vous utilisez l’IA dans vos services.
4. N’attendez pas que la réglementation vous soit imposée.
5. Investissez dans la formation et le développement.
6. Évaluez l’impact de la culture organisationnelle sur l’innovation.
Équilibrer la conformité et l’innovation peut être le défi le plus difficile de tous. L’essentiel est que les fonctions de gestion des risques et de conformité doivent continuer à protéger les compagnies d’assurance contre les risques négatifs tout en évoluant vers la fourniture de conseils stratégiques pour soutenir la croissance et le changement.