Actualité GeekIT, Data & IASmartphonesTechnologies

Android 17 : Gemini devient le majordome personnel capable de commander à votre place

Commander un repas, réserver un trajet ou acheter un produit sans toucher son smartphone. Avec Android 17, Google transforme Gemini en véritable majordome numérique. Grâce à Gemini 3, l’intelligence artificielle peut désormais exécuter des actions complètes dans les applications. Les futurs propriétaires de Pixel 10 et de Galaxy S26 seront les premiers à tester cette automatisation, d’abord aux États-Unis et en Corée du Sud.

Gemini 3 franchit un cap avec la Task Automation

Google introduit une nouvelle fonctionnalité baptisée Task Automation. L’objectif est clair : permettre à l’utilisateur de déléguer totalement certaines tâches du quotidien à l’IA.

Dans la pratique, Gemini 3 peut ouvrir une application comme Uber ou un service de livraison, parcourir les menus, sélectionner les options adaptées et vérifier la disponibilité d’un produit ou d’un service. L’assistant agit de manière autonome, sans manipulation constante de l’utilisateur.

Il est possible de suivre l’opération en temps réel ou de laisser l’IA fonctionner en arrière-plan. Une validation manuelle reste obligatoire au moment du paiement afin de conserver le contrôle des transactions.

Une exécution dans une fenêtre virtuelle sécurisée

Cette automatisation repose sur un système d’isolation. Les applications sont lancées dans une fenêtre virtuelle sécurisée, distincte du reste du système. Dans cet espace cloisonné, l’IA interagit avec l’interface graphique comme le ferait un humain : clics, défilements et sélections d’options.

Google s’appuie sur le Android App Functions Framework, une infrastructure conçue pour simplifier l’intégration côté développeurs. Lorsqu’une application propose une interface compatible, Gemini l’utilise directement.

Si aucune interface officielle n’est disponible, l’IA analyse l’écran et applique un raisonnement logique pour manipuler les éléments visibles. Elle interprète les boutons, les champs et les menus comme le ferait un utilisateur réel.

A lire :  Google change tout : votre Pixel apprendra bientôt à protéger sa batterie tout seul

Selon Sameer Samat, responsable d’Android chez Google, le système évolue vers un véritable Intelligence System. Android ne se limite plus à exécuter des applications : il comprend et agit. Cette automatisation avancée doit devenir un pilier d’Android 17.

Un lancement limité mais stratégique

Malgré des démonstrations convaincantes, le déploiement reste restreint. La fonctionnalité est pour l’instant réservée aux États-Unis et à la Corée du Sud. Au lancement, seuls quelques services, dont Uber et Grubhub, prennent officiellement en charge cette automatisation.

Google met fortement l’accent sur la sécurité. L’environnement isolé empêche l’IA d’accéder aux photos, aux messages et aux données sensibles du smartphone. L’assistant ne peut agir que dans l’espace qui lui est attribué.

La rapidité du déploiement international et l’adhésion des développeurs seront déterminantes. Si l’écosystème suit, Android 17 pourrait profondément transformer la manière dont les utilisateurs interagissent avec leurs applications au quotidien.

Source

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Samuel

Je m’appelle Samuel Le Goff. À 38 ans, je suis l’actualité du numérique depuis plus de 14 ans. Aujourd’hui, je m’intéresse particulièrement aux smartphones et aux usages concrets de l’intelligence artificielle, que je traite à travers des contenus clairs et accessibles sur Menow.fr.

Voir tous les articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *