Apple a récemment dévoilé ses plans pour améliorer les prochains iPhone 16 et iPhone 16 Pro en intégrant l’intelligence artificielle. Cette avancée soulève de nombreuses questions quant à la manière dont la société compte utiliser l’IA dans ses téléphones, comment elle aborde cette technologie et comment elle compte convaincre les consommateurs.
Pour intégrer l’intelligence artificielle dans ses téléphones, Apple a soumis huit grands modèles de langage à la plateforme Hugging Face, une ressource en ligne pour les mises en œuvre d’IA en open source. Ces modèles de langage sont des ensembles de données utilisés par les applications d’IA générative pour traiter les entrées et trouver des solutions adaptées.
Plus les modèles de langage sont grands, plus les données sont nombreuses, et il n’est donc pas surprenant que ces ensembles de données aient été initialement conçus pour fonctionner dans le cloud en tant que service en ligne. Cependant, il existe une tendance à créer des modèles de langage plus petits, nécessitant moins de données pour fonctionner sur un appareil mobile.
Cette nouvelle approche nécessite des techniques logicielles innovantes, mais elle mettra également à l’épreuve le matériel pour permettre un traitement plus efficace. Les fabricants de puces axés sur Android tels que Qualcomm, Samsung et MediaTek proposent des packages système-sur-puce optimisés pour l’IA générative. On s’attend à ce qu’Apple fasse de même avec la prochaine génération de puces Axx pour permettre à davantage de routines d’IA de se dérouler sur l’iPhone 16 plutôt que dans le cloud.
Le traitement sur l’appareil signifie que les données des utilisateurs n’auraient pas besoin d’être téléchargées et copiées à l’extérieur de l’appareil pour être traitées. Alors que le public prend de plus en plus conscience des préoccupations liées à la confidentialité de l’IA, cela deviendra un point de vente crucial pour Apple.
En plus du code de ces modèles de langage efficaces en open source, Apple a publié un article de recherche sur les techniques utilisées et les choix effectués, y compris la décision de rendre tous les données d’entraînement, les métriques d’évaluation, les points de contrôle et les configurations d’entraînement disponibles en open source.
Apple a également collaboré avec l’université de Cornell pour publier un autre article de recherche sur un modèle de langage efficace appelé Ferret-UI, capable de comprendre l’interface utilisateur d’un appareil, de naviguer dans les paramètres et de décrire ce qui est affiché à l’écran, offrant ainsi de multiples interactions.
Alors que Google lançait les Pixel 8 et Pixel 8 Pro comme les premiers smartphones intégrant l’IA en 2023, Apple est restée en retrait, du moins publiquement. Cependant, la publication régulière d’articles de recherche sur de nouvelles techniques garde les projets d’IA d’Apple visibles dans l’industrie, bien que cela ne soit pas encore apparent pour les consommateurs.
En fournissant le code open source de ces modèles de langage efficaces et en mettant l’accent sur le traitement sur l’appareil, Apple signale discrètement sa volonté de se démarquer face à la multitude d’appareils Android basés sur l’IA, tout en explorant la possibilité de licencier Gemini de Google pour alimenter certaines fonctionnalités d’IA de l’iPhone.
Il sera intéressant de voir comment ces avancées en matière d’IA s’intégreront dans le design des iPhone 16 et iPhone 16 Pro déjà fortement attendus.