Le printemps a apporté avec lui une vague de buzz autour de deux gadgets alimentés par l’IA: le Humane AI Pin et le Rabbit R1. Tous deux promettaient une automatisation de l’IA et une conversation fluide avec un assistant virtuel toujours présent et toujours serviable. Malheureusement, ils ont échoué. Le critique technologique renommé Marques Brownlee a qualifié le Humane AI Pin de “pire produit que j’ai jamais testé”, tandis que le Rabbit R1 a reçu le verdict quelque peu plus clément de “à peine testable”.

Dr. John Pagonis, chercheur principal en UX chez Zanshin Labs, a observé que tout nouveau dispositif grand public doit prouver qu’il est meilleur que ce qui est déjà disponible, une tâche à laquelle ces deux gadgets AI ont échoué. “Quel est le problème que ces dispositifs résolvent? Quel est le besoin qu’ils comblent? Ce n’est pas évident.”

Mais tout n’est pas perdu. Alors que Humane et Rabbit ont échoué, des solutions aux problèmes qui ont entravé ces nouveaux venus sont déjà à portée de main – et elles pourraient changer à jamais la technologie grand public.

Les meilleurs modèles de grands langages IA actuels font tous face à un ennemi commun: la latence. Les gens attendent une réaction lorsqu’ils tapent ou parlent, mais les meilleurs modèles résident dans des centres de données, ce qui peut causer des retards. C’est là le problème central qui a nui à Humane et Rabbit. Les critiques se sont plaints que les gadgets étaient lents à répondre et inutiles lorsque l’accès à Internet était peu fiable ou non disponible.

Pourtant, il existe une solution: mettre le modèle IA sur le dispositif. J’ai rapporté cette possibilité pour IEEE Spectrum en décembre, et beaucoup de choses ont évolué depuis. Les Llama 3 de Meta, Phi 3 de Microsoft et OpenLEM d’Apple – tous annoncés en avril 2024 – ont apporté de grands progrès dans la qualité des petits modèles IA. Les fabricants de puces comme Apple, Intel, AMD et Qualcomm s’attaquent également au problème, renforçant les performances des coprocesseurs IA dans les ordinateurs portables, tablettes et smartphones.

Amener les modèles IA sur la technologie grand public permettra également de résoudre un autre problème clé: la confidentialité. Rabbit R1 utilise un Large Action Model (LAM) pour automatiser des applications et des services, mais certains critiques ont exprimé une gêne face à l’idée. Le LAM exige des informations personnelles, y compris des identifiants et des mots de passe, pour agir au nom de l’utilisateur. Rabbit a promis de gérer les informations en toute sécurité, mais comme le modèle IA qu’il utilise est hébergé dans le cloud, les données sont inévitablement envoyées hors du dispositif.

Des LLM plus petits et plus rapides qui fonctionnent sur le dispositif pourraient résoudre le problème de la latence, mais ils ne rachèteront pas instantanément les gadgets de Humane et Rabbit. Les deux ont commis des erreurs de conception graves qui entravent la facilité d’utilisation promise.

Alors que la technologie de l’IA pourrait ne pas réinventer l’apparence et la convivialité de la technologie grand public de demain, elle pourrait alimenter une réinvention du logiciel que nous utilisons sur nos ordinateurs, tablettes et smartphones. Les entreprises comme Apple et Google tenteront de remplir les promesses faites par Humane et Rabbit avec des systèmes d’exploitation AI simplifiés qui prédisent les besoins des utilisateurs et automatisent les tâches courantes. Les smartphones pourraient même remplacer les applications par des automatisations contrôlées par un agent IA embarqué.

Alors que les premiers gadgets AI ont échoué, la voie reste ouverte pour les géants de la technologie. Ils pourraient bien remodeler le paysage de la technologie grand public et offrir une expérience utilisateur plus fluide et rationalisée.À suivre…