Visual Intelligence : Le plan secret de Apple pour tuer l’écran en 2027

par Yohann Poiron le 23/02/2026

Apple a toujours su raconter la technologie comme une extension du quotidien, pas comme un gadget. Mais depuis quelques semaines, un glissement se dessine : l’IA n’est plus seulement dans vos apps, elle est en train de devenir un sens.

Dans sa dernière newsletter, Mark Gurman (Bloomberg) décrit une Apple qui recentre ses efforts autour de la Visual Intelligence — une IA capable de comprendre le contexte visuel, les lieux, les objets, les situations. Avec une ambition claire : la sortir du téléphone pour en faire le cœur d’une nouvelle génération de wearables.

De la « recherche visuelle » à l’assistance en temps réel

Aujourd’hui, Apple a déjà posé une première brique : Visual Intelligence permet de rechercher, poser des questions et agir à partir de ce que vous voyez (et même à partir de ce qui s’affiche à l’écran), comme transformer une affiche en événement calendrier.

Mais, Gurman parle d’un changement de nature : passer de « je prends une photo et je demande » à « l’appareil comprend en continu ». Exemple typique : au lieu de « marchez 150 mètres », l’assistant vous dit « tournez à gauche après le Starbucks ». C’est de la navigation… mais surtout de la navigation contextuelle, ancrée dans le réel.

Trois formats sur la table : lunettes, pendentif, AirPods « augmentés »

Selon Bloomberg, Apple accélère le développement de trois objets qui exploiteraient cette Visual Intelligence, avec Siri comme interface principale :

  • Des smart glasses (sans écran, selon le rapport) : caméras, micros, haut-parleurs, et une IA capable de reconnaître l’environnement, aider à se repérer, identifier des éléments, traduire, etc. Production évoquée fin 2026, lancement possible en 2027.
  • Un « pendatif »/pin IA : un petit module type AirTag à porter au cou ou sur un vêtement, avec caméra + micro, pensé comme les « yeux et oreilles » de l’iPhone.
  • Des AirPods avec caméras : pas pour filmer, mais pour donner à Siri une lecture de contexte (gestes, environnement, orientation), avec des pistes évoquant des capteurs type infrarouge.

L’IA « dans l’écran » commence à plafonner. Les assistants ont appris à répondre ; la prochaine marche, c’est comprendre avant qu’on demande. Et, pour comprendre, il faut des capteurs — donc des objets portés, positionnés, présents. Bloomberg explique justement que Apple veut faire de Visual Intelligence le marqueur d’une nouvelle catégorie, pour rattraper le tempo de l’industrie sur l’IA ambiante.

Le paradoxe : moins d’écrans… mais plus d’invasion potentielle

Il y a une promesse séduisante : réduire le temps passé à regarder un rectangle. Mais, il y a aussi un coût immédiat : l’intrusion. Des caméras et micros « au plus près » ne sont acceptables que si Apple réussit son trio habituel :

  1. Contrôle (interrupteurs, indicateurs clairs, permissions compréhensibles)
  2. Traitement local autant que possible (Apple insiste déjà fortement sur la confidentialité de son approche Apple Intelligence).
  3. Utilité quotidienne (pas des démos) : navigation, accessibilité, traduction, reconnaissance de lieux/objets, routines vraiment pertinentes.

C’est là que se joue l’adhésion : Apple peut vendre un futur « moins d’écran » uniquement si l’objet est plus discret, pas plus envahissant.

Le vrai produit, ce n’est pas le pendentif — c’est une nouvelle interface

Le pendentif paraît un simple gadget… jusqu’à ce qu’on le lise comme Apple Watch en 2015 : un « objet bizarre » qui trouve sa place quand l’interface est bonne. Mais, dans ce dossier, le cœur n’est pas la forme : c’est la bascule vers une IA qui voit, contextualise et agit.

Les lunettes, elles, sont le pari le plus cohérent : si Apple parvient à faire des montures désirables et quasi normales, la Visual Intelligence devient une couche d’assistance permanente — sans sortir le téléphone. Et si ça arrive, ce ne sera pas « un gadget de plus » : ce sera le début d’un monde où l’interface se déplace du pouce… vers le regard.