DeepSeek ne semble plus se contenter d’être « le modèle qui impressionne ». À en croire une série d’offres d’emploi repérées en janvier, la startup chinoise préparerait un moteur de recherche IA capable de gérer plusieurs langues et des requêtes multimodales — texte, images, audio.
Autrement dit : un produit pensé pour la vraie vie, où la question est souvent… une capture d’écran, une photo, ou une note vocale.
Les annonces évoquent la construction d’un moteur de recherche IA multilingue et multimodal, mais aussi tout ce qui fait la différence entre une démo et un service quotidien : données d’entraînement, systèmes d’évaluation, infrastructure, et même des briques pour des agents « persistants » (capables d’opérer avec moins de supervision humaine).
C’est un signal important : DeepSeek semble viser une recherche qui rend un résultat exploitable, pas une liste de liens. Et derrière, des agents qui peuvent enchaîner : trouver l’info, puis agir (résumer, comparer, remplir, réserver, notifier).
DeepSeek Search : Pourquoi le multimodal change la donne (surtout sur mobile)
Le pari est limpide : la recherche moderne n’est plus seulement « des mots-clés ». Sur smartphone, la requête la plus fréquente ressemble plutôt à :
- « C’est quoi ce menu/ce panneau/ce bug à l’écran ? » (image)
- « Tu comprends ce que dit cette personne ? » (audio)
- « Qu’est-ce que je dois faire ici ? » (photo + contexte)
Une recherche IA multimodale peut absorber ce « désordre » natif du réel et produire une réponse directe — ce que les moteurs classiques gèrent encore mal sans transformer l’utilisateur en opérateur de mots-clés.
Pourquoi ça compte pour Google (et pour tout le marché) ?
Google reste la destination par défaut, mais l’habitude évolue : l’utilisateur veut une réponse utile vite, dans une forme conversationnelle, avec des relances possibles. DeepSeek arrive pile au moment où l’industrie bascule vers l’« moteur de réponse » : Yahoo vient d’ailleurs de lancer Scout, un moteur IA orienté réponses, pendant que Google pousse ses propres modes conversationnels.
L’enjeu n’est pas seulement technique. C’est de la distribution :
- Est-ce que DeepSeek Search deviendra un site/une app grand public ?
- Une API intégrée dans des apps chinoises déjà massives ?
- Un module « search » dans un assistant existant ?
C’est ce choix qui déterminera s’il grignote Google « par le haut » (premium, power users) ou « par la masse » (préinstallation, partenariats, super-apps).
DeepSeek, le précédent R1… et la logique « efficacité »
Ce mouvement paraît cohérent avec l’ADN DeepSeek : bousculer le marché en misant sur l’efficience plutôt que sur la seule force brute. En 2025, DeepSeek avait déjà frappé fort avec des modèles présentés comme très compétitifs à coût réduit, déclenchant au passage une onde de choc dans l’écosystème IA.
Et fin 2025, l’équipe publiait encore des travaux autour de l’efficacité et des performances « agentic », renforçant l’idée d’un passage naturel vers des produits orientés usage.
Ce qu’il faudra surveiller maintenant :
- La qualité des réponses : la recherche IA échoue rarement en « style », mais souvent en fiabilité (hallucinations, sources fragiles). Les mentions d’outils d’évaluation dans les recrutements sont encourageantes… mais tout se joue sur l’exécution.
- La politique des sources : liens visibles et traçabilité, ou réponses « boîte noire » ? (le nerf de la guerre face aux éditeurs et au web ouvert).
- Les agents persistants : si DeepSeek couple recherche + agents, on bascule d’un moteur à un assistant opérant, ce qui change les attentes… et les risques.
- La pression réglementaire : DeepSeek a déjà été dans le viseur de certains régulateurs pour des questions de sécurité/données. Un produit de recherche grand public augmente mécaniquement l’exposition.
DeepSeek n’essaie peut-être pas de « tuer Google ». Mais en préparant une recherche multimodale et multilingue, il vise exactement l’endroit où Google est le plus vulnérable : le moment où l’utilisateur veut une réponse, pas une navigation.
