**Meta Présente Llama 3.2 : Une Révolution Multimodale en IA**
Lors de la conférence annuelle Meta Connect, Meta a levé le voile sur Llama 3.2, la dernière évolution de sa famille de modèles d’intelligence artificielle. Composée de quatre versions — deux modèles multimodaux (11B et 90B) et deux modèles textuels (1B et 3B) — cette itération promet d’élargir le champ des possibles en matière de traitement de données.
Les modèles multimodaux, intégrant pour la première fois des capacités de traitement d’images, utilisent une nouvelle architecture combinant encodeurs d’images et modèles de langage. Cela leur permet de gérer à la fois des entrées textuelles et visuelles, facilitant des applications pratiques telles que l’analyse de graphiques ou la génération de légendes pour des images. Les utilisateurs peuvent bénéficier d’une mise en œuvre sans nécessité d’entraînement complexe, ou opter pour un ajustement via TorchTune pour des besoins spécifiques.
Les versions plus légères, 1B et 3B, sont optimisées pour les appareils mobiles et embarqués, grâce à des techniques de distillation et d’élagage. Ces modèles maintiennent une performance élevée tout en étant adaptés à des plateformes avec des ressources limitées, comme les smartphones équipés de processeurs Qualcomm et MediaTek.
En termes de performances, les modèles Llama 3.2 rivalisent avec d’autres solutions de premier plan, surpassant notamment des concurrents sur des tâches telles que la synthèse et le suivi d’instructions. Leur disponibilité sur des plateformes comme llama.com et Hugging Face facilite l’accès pour les développeurs.
Meta a également annoncé Llama Stack, une suite d’outils pour simplifier le déploiement des modèles dans divers environnements. Ce système inclut des API et une interface en ligne de commande, offrant une solution clé en main pour les intégrations.
Avec Llama 3.2, Meta confirme sa volonté de rester à la pointe de l’innovation en intelligence artificielle, en fournissant des outils puissants et flexibles pour les développeurs du monde entier.