La génération d’intelligence artificielle (GenAI) fait partie des branches de l’IA qui se concentrent sur la création de nouvelles données au lieu de faire des prédictions ou des classifications. Cette technologie fonctionne pour tous types de données, des images réalistes aux textes complexes (comme nous le voyons partout maintenant) en passant par les vidéos connues sous le nom de deepfakes ou les ensembles de données et bases de données connus sous le nom de données synthétiques.

La GenAI est devenue l’une des technologies les plus discutées aujourd’hui. Cependant, malgré son potentiel, cette technologie présente des limitations fondamentales et des risques souvent ignorés dans l’engouement généralisé, sur lesquels je vais me concentrer aujourd’hui.

Non-Déterminisme

Une des caractéristiques inhérentes de la GenAI est son non-déterminisme. Cela signifie que l’IA peut produire des sorties différentes même lorsqu’elle reçoit la même entrée plusieurs fois, entraînant une imprévisibilité dans ses résultats.

Dans la plupart des secteurs, de la santé à la banque, la fiabilité est primordiale. Cette imprévisibilité peut être un sérieux inconvénient. Les humains préfèrent généralement la prévisibilité, en particulier dans des applications critiques – savoir à quoi s’attendre de la technologie engendre confiance et fiabilité, des qualités avec lesquelles les systèmes IA non-déterministes peuvent avoir du mal à garantir.

Hallucinations

Les grands modèles de GenAI, comme ceux utilisés pour créer du texte ou des images (grands modèles de langage ou LLM et modèles fondamentaux ou FM), sont formés sur de vastes ensembles de données souvent collectées sur internet. Cette formation peut conduire ces modèles à “halluciner” involontairement, posant des risques importants car les “hallucinations” sont présentées de manière convaincante comme des vérités.

Les LLM peuvent également reproduire des informations sensibles ou propriétaires lorsqu’ils utilisent des approches comme la génération augmentée par récupération (RAG) et/ou l’affinage, posant des risques en termes de confidentialité et de sécurité. Ceci peut être particulièrement problématique dans des domaines comme la diffusion d’informations, l’éducation, la santé et les conseils juridiques où l’exactitude est cruciale.

Cas d’utilisation limités

Malgré leurs impressionnantes capacités de sortie, les applications de GenAI sont limitées dans leur capacité à aborder des problèmes sociétaux complexes et multidimensionnels. Ils excellent dans des tâches définies et étroites, mais manquent de la compréhension générale nécessaire pour relever des défis plus vastes tels que la prise de décision stratégique ou les dilemmes éthiques. Cela met en évidence un écart significatif entre les capacités des technologies IA actuelles et les exigences pour résoudre des problèmes du monde réel impliquant des enjeux élevés ou une compréhension contextuelle profonde.

Au-delà de l’intelligence artificielle générale

Alors que certains croient que nous sommes proches de l’intelligence artificielle générale (AGI) — une IA qui comprend, apprend et applique des connaissances sur un large éventail de tâches comme le ferait un humain — je pense que nous en sommes loin.

Yann LeCun, figure de proue de l’IA et scientifique en chef de l’IA de Meta, a exprimé des préoccupations concernant les limitations des systèmes IA actuels. Il souligne que tandis que l’IA peut imiter des motifs complexes, elle manque de la compréhension intuitive du monde que possèdent les humains, cruciale pour prendre des décisions moralement et socialement responsables. Son travail met en avant la nécessité de systèmes AI qui comprennent la causalité et le contexte, pas seulement la corrélation.

Au lieu de l’objectif large et souvent spéculatif de l’AGI, se concentrer sur des objectifs spécifiques et réalisables adaptés à des besoins distincts garantit que le développement de l’IA est à la fois ancré et directement bénéfique. Cette stratégie atténue non seulement les risques liés au non-déterminisme et à la confidentialité des données, mais maximise également la pertinence et l’impact de l’IA dans différents secteurs.

En adoptant une IA spécifique à chaque cas d’utilisation, nous pouvons faire avancer la technologie de manière innovante et alignée sur les exigences nuancées des valeurs humaines et des considérations éthiques. Bien sûr, cette technologie n’est pas encore disponible et il reste de nombreux défis et obstacles à surmonter.

Compréhension du monde réel grâce aux données

Un des défis principaux pour développer une IA qui comprend réellement et interagit avec le monde réel est le besoin de données complètes multi-domaines. Une IA efficace nécessite une formation sur des ensembles de données divers reflétant la complexité et la variabilité des environnements du monde réel. Cependant, collecter de telles données est difficile, et s’assurer qu’elles sont représentatives et impartiales est difficile à valider manuellement pour les humains. Alors que des solutions telles que les données synthétiques sont explorées, nous sommes encore loin d’y parvenir.

Interfaces homme-machine

L’interface homme-machine est cruciale pour rendre l’IA accessible et utile dans une grande variété d’applications. Les LLM ont considérablement amélioré ces interfaces, mais la subjectivité inhérente et l’ambiguïté du langage présentent encore des défis uniques, de la compréhension contextuelle aux mécanismes de rétroaction et bien d’autres aspects. La vie n’est pas une conception — elle se passe tout simplement.

Répondre à plusieurs objectifs ou cas d’utilisation simultanément implique des défis d’ingénierie et d’infrastructure complexes. La variété et la quantité des cas d’utilisation nécessiteront une allocation de ressources et une mise à l’échelle importantes (ou peut-être du matériel différent) ainsi qu’une architecture IA modulaire.

Cette attention accrue promet de créer des technologies IA qui non seulement sont efficaces dans l’exécution des tâches, mais aussi dignes de confiance et sûres — des caractéristiques qui définiront la prochaine génération de systèmes IA en tant que véritables partenaires dans le progrès.