Google I/O 2025 : Project Astra va révolutionner votre façon de chercher !

par Yohann Poiron le 21/05/2025

Lors de la conférence Google I/O 2025, Google a officiellement annoncé que Project Astra — son IA multimodale à faible latence développée par DeepMind — alimentera une nouvelle génération d’expériences interactives dans la recherche, l’application Gemini et des services tiers. Le géant de la recherche entend ainsi transformer la façon dont nous interagissons avec l’intelligence artificielle, en rendant l’IA plus rapide, plus contextuelle et plus naturelle.

Search Live: interroger le monde en temps réel avec l’IA

Parmi les annonces majeures, Search Live est la première grande démonstration de la puissance de Project Astra pour le grand public.

Lorsqu’un utilisateur active le Mode AI dans Google Search ou utilise Google Lens, un bouton « Live » s’affiche à l’écran. En cliquant dessus, vous pouvez pointer la caméra de votre smartphone sur un objet ou une scène et poser des questions à l’IA, en temps réel, avec une réponse quasi instantanée.

Exemple : vous pouvez filmer un tableau électrique ou une plante dans votre salon et demander à Google : « Qu’est-ce que c’est ? », « Comment l’entretenir ? », « Où puis-je acheter ça ? ».

Qu’est-ce que Project Astra ?

D’abord présenté en 2024 sous la forme d’une démo virale de lunettes connectées intelligentes, Project Astra repose sur une IA multimodale capable de traiter audio, texte, image et vidéo en direct, le tout avec une latence ultra-réduite.

Conçu par Google DeepMind, Astra représente la nouvelle frontière de l’IA conversationnelle. Elle écoute, voit, comprend, raisonne et répond, le tout en quelques millisecondes.

Intégration dans l’écosystème Google

Outre Search, Google va intégrer Project Astra dans plusieurs de ses services :

  • Application Gemini : l’application d’IA de Google va bénéficier des capacités de vidéo en direct et de partage d’écran issues de Project Astra. Ces fonctions, réservées aux abonnés premium, seront désormais déployées à tous les utilisateurs.
  • API Live (dev) : Google ouvre un nouvel endpoint API Live permettant aux développeurs de créer des expériences audio/vidéo à faible latence, avec :
    • Traitement de la voix et de la vidéo en temps réel,
    • Synthèse vocale native,
    • Détection d’émotions,
    • Raisonnement contextuel basé sur Gemini

Cette API vise à alimenter des assistants vocaux, des jeux, des outils éducatifs ou encore des systèmes embarqués.

Des lunettes connectées toujours en développement

Google a également réaffirmé sa volonté de lancer des lunettes intelligentes alimentées par Project Astra, en collaboration avec Samsung et Warby Parker. Ces lunettes seraient capables de :

  • Voir ce que vous voyez
  • Écouter ce que vous entendez
  • Vous répondre avec des infos utiles à l’instant T

Malheureusement, aucune date de sortie officielle n’a été annoncée. La société affirme que le projet progresse, mais que le produit final n’est pas encore prêt pour une commercialisation.

Avec Project Astra, Google ne se contente plus d’imiter ChatGPT ou Copilot. Il trace sa propre voie vers une IA multimodale temps réel, capable d’accompagner les utilisateurs dans le monde physique. Que ce soit pour diagnostiquer un problème en direct, comprendre une scène ou traduire une interaction, Astra pourrait bien être l’assistant numérique le plus intuitif jamais conçu.

Reste maintenant à voir si Google saura transformer ce prototype ambitieux en produit de masse…