Apple Phone 15 Pro en vente (Photographe : Dhiraj Singh / Bloomberg) © 2023 Bloomberg Finance LPMis à jour le 27 avril : article initialement publié le 25 avril. Comment Apple améliorera le prochain iPhone 16 et iPhone 16 Pro avec l’intelligence artificielle est l’une des grandes questions de 2024. Nous en savons maintenant plus sur les projets d’Apple d’utiliser l’IA dans l’iPhone, son approche et comment elle le vendra aux consommateurs.

Apple a soumis huit grands modèles de langage au hub Hugging Face, une ressource en ligne d’implémentations d’IA open-source. Les MLG sont des ensembles de données que les applications d’IA générative utilisent pour traiter les entrées et travailler sur autant d’itérations que nécessaire pour arriver à une solution appropriée.

Plus le MLG est grand, plus il y a de données disponibles, et il n’est pas surprenant que ces ensembles de données aient été initialement construits dans le cloud pour être accessibles en tant que service en ligne. Il y a eu une poussée pour créer des MLG avec une empreinte de données suffisamment petite pour s’exécuter sur un appareil mobile.

Cela nécessite de nouvelles techniques logicielles, mais cela demandera également au matériel de permettre un traitement plus efficace. Les fabricants de chipsets centrés sur Android tels que Qualcomm, Samsung et MediaTek proposent des packages système-sur-puce optimisés pour l’IA générative. On s’attend à ce qu’Apple fasse de même avec la prochaine génération de puces Axx pour permettre à plus de routines d’IA de se dérouler sur la famille de l’iPhone 16 de cette année plutôt que dans le cloud.

Le fait de fonctionner sur l’appareil signifie que les données de l’utilisateur n’auraient pas besoin d’être téléchargées et copiées loin de l’appareil pour être traitées. Alors que le public prend conscience des préoccupations liées à la confidentialité de l’IA, cela deviendra un point de marketing clé.

Vue du Microsoft store à Manhattan, New York (Photo de Beata Zawrzel/NurPhoto via Getty Images) NurPhoto via Getty ImagesMise à jour : samedi 27 avril : Apple n’est pas la seule entreprise à travailler dur sur des modèles de langage à plus petite échelle mais efficaces pour les appareils mobiles. Ce week-end, Microsoft a publié des détails et des guides de développement pour Phi-3. Le plus petit de ces trois modèles d’IA générative, Phi-3 Mini, est disponible via les Studios Azure AI de Microsoft, Ollama et Hugging Face. Phi-3 Small et Phi-3 Medium sont encore en phase de développement.

Phi-3 est un grand modèle de langage qui fonctionne dans un petit empreinte. Microsoft affirme qu’il peut surpasser des modèles deux fois plus grands “sur des benchmarks clés” et établit une comparaison directe et favorable avec GPT-3.5T. Crucialement, Phi-3 Mini fonctionnera confortablement sur la puce bionique A16 d’Apple, ce qui signifie que les développeurs tiers peuvent cibler l’iPhone 14 Pro et 14 Pro Max ainsi que la famille de l’iPhone 15 et tout modèle futur.

2024 verra le lancement de nombreux MLG, des amateurs jusqu’aux grands noms de la Silicon Valley (et de Redmond). Certains seront licenciés par leurs développeurs aux fabricants de matériel, et il y a une chance réaliste qu’Apple travaille avec des modèles d’IA de Google et de Microsoft pour iOS 18 et les futurs iPhones.

Les modèles sont facilement disponibles pour les développeurs tiers. Ils auront un large choix d’outils d’IA et chercheront un support multiplateforme pour faciliter le processus de développement. Alors que les fabricants se tournent vers l’IA pour le marketing et la différenciation, les applications que les utilisateurs recherchent peuvent participer à la révolution de l’IA sans être enfermées dans un seul choix fait par le fabricant.

Le magasin de détail Apple dans Grand Central Terminal (Photo de Drew Angerer/Getty Images) Getty ImagesAux côtés du code de ces modèles de langage efficaces en open-source, Apple a publié un article de recherche sur les techniques utilisées et la logique derrière les choix, y compris la décision de mettre en open-source toutes les données d’entraînement, les métriques d’évaluation, les checkpoints et les configurations d’entraînement.

Cette publication fait suite à la sortie d’un autre article de recherche sur les modèles de langage par l’Université Cornell, travaillant aux côtés de l’équipe de recherche et développement d’Apple. Cet article décrivait Ferret-UI, un MLG qui aiderait à comprendre l’interface utilisateur d’un appareil et ce qui se passe à l’écran et proposerait de nombreuses interactions. Les exemples incluent l’utilisation de la voix pour naviguer vers un paramètre bien caché ou décrire ce qui est affiché sur l’écran pour les personnes malvoyantes.

Trois semaines après qu’Apple a sorti la famille de l’iPhone 15 en 2023, Google a lancé le Pixel 8 et le Pixel 8 Pro. Les proclamant comme les premiers smartphones avec IA intégrée, les appareils ont marqué une ruée pour utiliser et promouvoir les avantages de l’IA générative dans les appareils mobiles. Apple a été sur la défensive, du moins publiquement, depuis lors.

La sortie régulière d’articles de recherche sur de nouvelles techniques a maintenu les plans d’IA d’Apple visibles pour l’industrie, sinon encore pour les consommateurs. En fournissant le code open-source de ces modèles de langage efficaces et en mettant l’accent sur le traitement sur l’appareil, Apple signale discrètement comment elle espère se démarquer parmi la flopée d’appareils AI alimentés par Android, même si elle discute avec Google de l’octroi de licences pour Gemini pour alimenter certaines des fonctionnalités d’IA de l’iPhone.
Maintenant, jetons un coup d’œil plus attentif au design divulgué de l’iPhone 16 et de l’iPhone 16 Pro…