TikTok veut redonner la main aux utilisateurs face à la déferlante de contenus générés par IA. La plateforme teste un nouveau curseur de contrôle dédié, tout en renforçant son système d’identification grâce à des filigranes invisibles.
Un double mouvement qui traduit une prise de conscience : l’ère du « tout-IA » doit être encadrée.
Une nouvelle brique dans les outils de personnalisation du feed
L’algorithme de TikTok est souvent décrit comme l’un des plus efficaces de l’industrie. Mais avec l’arrivée massive de vidéos produites par des modèles génératifs, la plateforme cherche à offrir plus de granularité dans la personnalisation.
Le nouveau curseur IA, actuellement en test, apparaîtra dans la section « Gérer les thématiques », aux côtés des contrôles déjà existants pour la danse, l’actualité ou le fitness. Comme ces derniers, il permettra de dire au système si l’on souhaite voir davantage ou moins de contenus générés par IA — avec deux niveaux dans chaque direction.
Une manière simple d’ajuster l’expérience sans rejeter complètement ce type de créations, devenu incontournable dans la culture visuelle actuelle.
Des filigranes invisibles pour renforcer la détection
Pour que ce curseur fonctionne, TikTok doit savoir précisément quels contenus ont été générés par IA. Le problème : les filigranes visibles sont souvent retirés avant publication.
La plateforme va donc déployer des filigranes invisibles, apposés automatiquement sur les vidéos créées avec ses propres outils, comme AI Editor Pro. TikTok reconnaîtra également les vidéos intégrant des C2PA Content Credentials, un standard d’authentification soutenu par l’industrie — même si celui-ci a déjà montré ses limites face aux manipulations avancées.
Ces marqueurs invisibles devraient aider l’algorithme à identifier la nature d’une vidéo sans dégrader l’expérience utilisateur, ni affecter l’esthétique du contenu.
Un déploiement progressif, mais une stratégie claire
TikTok annonce que ces nouveautés seront déployées « dans les semaines à venir », même si le curseur IA reste pour l’instant limité à une phase de test. La démarche s’inscrit dans une tendance plus large : les plateformes sociales cherchent à mieux séparer les contenus humains de ceux issus de l’IA, à la fois par transparence et pour limiter les dérives.
Dans un contexte où la provenance des images, des vidéos et des voix devient de plus en plus difficile à tracer, TikTok semble vouloir se positionner comme un acteur proactif. Une manière de rassurer créateurs, médias et régulateurs, alors que l’authenticité du contenu n’a jamais autant été questionnée.
