Apple Phone 15 Pro en vente (Photographe : Dhiraj Singh/Bloomberg) © 2023 Bloomberg Finance LPMise à jour le 27 avril : article initialement publié le 25 avril. La façon dont Apple améliorera le prochain iPhone 16 et iPhone 16 Pro grâce à l’intelligence artificielle est l’une des grandes questions de 2024. Maintenant, nous en savons plus sur les projets d’Apple pour utiliser l’IA dans l’iPhone, son approche et comment elle le vendra aux consommateurs.
Apple a soumis huit grands modèles de langage à la plateforme Hugging Face, une ressource en ligne pour les mises en œuvre d’IA open-source. Les modèles de langage sont des ensembles de données que les applications d’IA générative utilisent pour traiter les entrées et travailler à travers autant d’itérations que nécessaire pour arriver à une solution adaptée.
Plus le modèle de langage est grand, plus il y a de données disponibles, et il n’est pas surprenant que ces ensembles de données aient été initialement construits dans le cloud pour être accessibles en ligne. Il y a eu une poussée pour créer des modèles de langage avec une empreinte de données assez petite pour fonctionner sur un appareil mobile.
Cela nécessite de nouvelles techniques logicielles, mais cela impliquera également une demande sur le matériel pour permettre un traitement plus efficace. Les fabricants de chipsets axés sur Android tels que Qualcomm, Samsung et MediaTek proposent des ensembles de puces optimisés pour l’IA générative. On s’attend à ce qu’Apple fasse de même avec la prochaine génération de puces Axx pour permettre à davantage de routines d’IA de se dérouler sur la famille des iPhone 16 de cette année plutôt que dans le cloud.
L’exécution sur l’appareil signifie que les données de l’utilisateur n’auraient pas besoin d’être téléchargées et copiées loin de l’appareil pour être traitées. Alors que le public devient de plus en plus conscient des préoccupations en matière de confidentialité de l’IA, cela deviendra un point de marketing clé.
Magasin Microsoft à Manhattan, New York (Photo de Beata Zawrzel/NurPhoto via Getty Images) NurPhoto via Getty Images
Mise à jour : samedi 27 avril : Apple n’est pas la seule entreprise à travailler dur sur des modèles de langage plus petits mais efficaces pour les appareils mobiles. Ce week-end, Microsoft a publié des détails et des guides de développement pour Phi-3. Le plus petit de ces trois modèles d’IA générative, Phi-3 Mini, est disponible via les Studios d’IA Azure de Microsoft, Ollama et Hugging Face. Phi-3 Small et Phi-3 Medium sont encore en phase de développement.
Phi-3 est un grand modèle de langage qui fonctionne dans un petit espace. Microsoft affirme qu’il peut surperformer des modèles deux fois plus grands “sur des points clés” et fait une comparaison directe et favorable avec GPT-3.5T. De manière cruciale, Phi-3 Mini fonctionnera confortablement sur la puce bionique A16 d’Apple, ce qui signifie que les développeurs tiers peuvent cibler l’iPhone 14 Pro et 14 Pro Max ainsi que la famille de l’iPhone 15 et tout futur modèle.
2024 verra le lancement de nombreux modèles de langage, des amateurs aux grands de la Silicon Valley (et de Redmond). Certains seront sous licence par leurs développeurs auprès des fabricants de matériel, et il y a une chance réaliste qu’Apple travaillera avec des modèles d’IA de Google et Microsoft pour iOS 18 et les futurs iPhones.
Les modèles sont facilement accessibles aux développeurs tiers. Ils auront un large choix d’outils d’IA et rechercheront un support interplateforme pour faciliter le processus de développement. Alors que les fabricants se tournent vers l’IA pour le marketing et la différenciation, les applications que les utilisateurs désirent peuvent rejoindre la révolution de l’IA sans être enfermées dans un choix unique fait par le fabricant.
Le magasin de vente au détail Apple à Grand Central Terminal (Photo de Drew Angerer/Getty Images) Getty Images
Aux côtés du code de ces modèles de langage efficaces en open-source, Apple a publié un article de recherche (lien PDF) sur les techniques utilisées et la justification derrière les choix, y compris la décision de rendre open-source toutes les données d’apprentissage, les métriques d’évaluation, les points de contrôle et les configurations d’apprentissage.
Cela fait suite à la publication d’un autre article de recherche sur les LLM par l’Université Cornell, travaillant aux côtés de l’équipe de recherche et développement d’Apple. Cet article décrivait Ferret-UI, un LLM qui aiderait à comprendre l’interface utilisateur d’un appareil et ce qui se passe à l’écran et offrirait de nombreuses interactions. Des exemples incluent l’utilisation de la voix pour naviguer vers un paramètre bien caché ou décrire ce qui est affiché sur l’écran pour ceux ayant une vision impairée.
Trois semaines après la sortie de la famille iPhone 15 en 2023, Google a lancé le Pixel 8 et le Pixel 8 Pro. Les proclamant comme les premiers smartphones avec une IA intégrée, les appareils ont marqué une ruée vers l’utilisation et la promotion des avantages de l’IA générative dans les appareils mobiles. Apple a été sur la défensive, du moins publiquement, depuis lors.
La sortie régulière d’articles de recherche sur de nouvelles techniques a maintenu les projets d’IA d’Apple visibles pour l’industrie, même si ce n’est pas encore le cas pour les consommateurs. En fournissant le code open-source de ces modèles de langage efficaces et en mettant l’accent sur le traitement sur l’appareil, Apple signale discrètement comment elle espère se démarquer face à la multitude d’appareils AI alimentés par Android, même si elle discute avec Google de la licence de Gemini pour alimenter certaines des fonctionnalités d’IA de l’iPhone.
Maintenant, jetons un coup d’œil plus attentif au design fuité de l’iPhone 16 et de l’iPhone 16 Pro…