Le moment où Collien Ulmen-Fernandes a découvert pour la première fois son propre visage - dans une vidéo qu’elle n’a pourtant jamais tournée - ressemble à une scène tout droit sortie d’un scénario de Black Mirror.
Sauf que l’actrice n’était pas sur un plateau. Elle était seule, le téléphone à la main, quelque part entre deux rendez-vous : notification push, clic, puis le silence. Les mouvements, le regard, la voix : tout paraît familier… et pourtant tout sonne faux. Un corps qui n’est pas le sien, mais qui fait comme s’il l’était. Ce malaise, on le connaît quand quelqu’un jette un œil à notre historique de discussion - ici, il est démultiplié par une exposition publique où tout le monde observe. C’est là que les deepfakes ont quitté brutalement la niche techno pour s’inviter dans le grand public allemand. Et, avec Collien, ils ont trouvé quelqu’un qui ne se contente pas de se taire. Elle pose la question : à qui appartient, au juste, mon visage ?
Quand ton visage devient un jouet
Depuis des années, Collien est un visage de la télévision : animatrice, comédienne, mère, qui partage sur les réseaux des aperçus mesurés plutôt qu’un flux permanent. Son image publique : professionnelle, drôle, et un peu à distance de l’auto-promotion incessante. C’est précisément ce qui rend le choc si violent lorsqu’un deepfake surgit. D’un coup, une vidéo circule : elle la sexualise, la déforme, et la propulse dans un contexte qu’elle n’a jamais choisi. Pour un spectateur, il est facile de passer à autre chose. Pour elle, cela devient une fissure invisible dans le quotidien : une version mensongère qui se détache d’elle et vit sa propre vie.
Nous évoluons dans une culture où les visages sont reconnus et jugés en quelques millisecondes. Collien a bâti sa carrière avec un visage connu du public. Et voilà que ce capital est retourné contre elle. Un algorithme se nourrit d’images disponibles, les greffe sur un autre corps, y ajoute une fantaisie - et le “contenu” est prêt. Pendant que beaucoup d’internautes balaient ça d’un geste, comme “encore un truc fake”, quelque chose se déplace en profondeur : la façon dont on la regarde, dont les médias parlent d’elle, et même le sentiment de sécurité d’autres femmes lorsqu’elles publient un simple selfie.
Pour mesurer à quel point les deepfakes peuvent faire bouger une société, un détour par quelques constats aide. Des études récentes indiquent que la grande majorité des deepfakes qui circulent en ligne sont pornographiques et ciblent des femmes - souvent sans qu’elles le sachent. Dans les blogs tech, cela s’écrit avec une froideur clinique : jeux de données, algorithmes, puissance GPU. Dans la vraie vie, les phrases ont un autre poids : « Ma fille a peur de montrer son visage sur Instagram. » Ou : « Je panique dès qu’on tape mon nom sur Google. » Collien met cette angoisse diffuse en pleine lumière, aux heures de grande audience, justement parce que les gens la connaissent.
Il n’existe aucun compteur qui indiquerait combien de personnes la regardent autrement depuis cette vidéo. Il n’y a que des signaux minuscules : une hésitation en interview, un commentaire venimeux, une plaisanterie “ironique” en ligne, accompagnée d’un sourire entendu, comme si tout cela n’était pas si grave. Soyons lucides : personne ne passe ses journées à fouiller Internet pour vérifier si son visage est détourné. La plupart des victimes ne le découvrent même jamais. Chez une personnalité comme Collien, c’est seulement plus visible, plus bruyant, plus “mesurable”. Son histoire rend tangible ce que subissent déjà beaucoup d’autres, loin des caméras.
Les deepfakes sont si efficaces parce qu’ils s’appuient sur un réflexe appris : croire aux images. Une vidéo conserve encore cette aura de preuve - “si on le voit, c’est que c’est vrai”. Quand le faux “moi” de Collien dit ou fait des choses qui ne lui ressemblent pas, une friction cognitive apparaît. Pourtant, il reste une part de doute. C’est précisément là que le dommage s’installe : non pas parce que tout le monde se dit “c’est 100 % authentique”, mais parce qu’assez de gens pensent “ça pourrait quand même…”. Ce “peut-être” devient une ombre tenace au-dessus d’une personne publique. La technologie n’est que le moteur ; le reste, c’est la culture, le voyeurisme, et la mécanique du clic.
Ce que Collien Ulmen-Fernandes nous apprend - même sans caméra braquée sur nous
Un point sur lequel Collien insiste dans ses interviews : détourner le regard n’aide personne. Elle raconte sans détour ce que cela fait quand on se fait confisquer son propre visage. Ce n’est pas un simple épisode de “drame de célébrité”. C’est une leçon utile à tous ceux qui comprennent déjà que les images générées par IA et les fausses vidéos ne vont pas disparaître. Aujourd’hui, être public - avec 200 abonnés ou deux millions - suppose une forme de plan d’urgence intérieur. Pas une paranoïa permanente, mais une ligne claire : je ne l’accepte pas, je le nomme, je cherche du soutien. La honte est l’alliée des agresseurs, pas celle des personnes visées.
Elle s’empare du sujet via les interviews, les réseaux sociaux et les talk-shows. Pas pour se “vendre”, mais parce qu’elle a compris un mécanisme : si elle, avec un réseau, des avocats, des relais presse, doit déjà se battre autant, qu’en est-il d’une adolescente de 17 ans sans visibilité ? Sa prise de parole envoie un message : l’espace public peut aussi devenir un bouclier, pas seulement une zone à risques. Beaucoup ont déjà ressenti cette gêne en ligne : tomber sur quelque chose qui “sonne faux”, puis scroller parce qu’on ne sait pas quoi faire. Le premier pas est souvent très simple : dire à voix haute que c’est inacceptable. Et écouter celles et ceux que cela touche.
Ce qui ressort chez Collien, c’est qu’elle ne réduit pas l’affaire à une peur abstraite de la technique. Plutôt que “l’IA est mauvaise”, elle parle de responsabilité, de rapports de force, de structures. Elle pointe les médias, les plateformes, le droit. Et elle nous renvoie aussi à notre rôle de public. Nous participons tous au système qui transforme les deepfakes en audience : un clic, un partage, une blague. Son histoire personnelle ouvre alors sur des questions plus larges : quelles images choisit-on de normaliser ? à qui accorde-t-on notre confiance ? et qui a le droit de dire “je”, quand son visage est déjà utilisé par d’autres ?
Dans une discussion, elle a formulé une phrase qui reste souvent coincée dans la gorge :
« J’ai toujours considéré mon visage comme une partie de mon métier. Soudain, j’ai eu l’impression qu’il ne m’appartenait plus. »
- Parle-en si tu vois un faux : se taire renforce le point de vue des auteurs.
- Surveille ton propre comportement de clic ; chaque vue agit comme un petit amplificateur.
- Renseigne-toi sur les démarches juridiques, même si tu espères ne jamais en avoir besoin.
- Soutiens publiquement les personnes visées, au lieu de te réfugier dans le cynisme.
- Exige des plateformes des procédures de signalement claires et des réponses transparentes.
Ce que ce cas provoque chez nous tous
L’histoire du deepfake visant Collien ne se résume pas à une anecdote techno. Elle marque un moment où, collectivement, nous devons décider jusqu’où nous acceptons de céder la maîtrise de nos images. Il y a peu, “fake” servait surtout pour des montages Photoshop grossiers ou des rumeurs. Aujourd’hui, on parle de vidéos si crédibles qu’elles peuvent ébranler des carrières, des relations et des biographies entières. Quiconque élève des enfants le pressent : ce n’est plus le monde des vieux caméscopes tremblotants dans lequel beaucoup ont grandi.
Collien utilise sa notoriété pour rendre ce basculement visible. Pas sur le registre de la panique morale, mais comme quelqu’un qui sait que la technologie restera - et que nous devons apprendre à nous adapter. Elle mise sur la transparence plutôt que l’enterrement. Sur la pédagogie plutôt que la honte. La réalité, froide et simple : nous ne ferons pas disparaître les deepfakes d’Internet. En revanche, nous pouvons apprendre à y répondre autrement. Avec plus d’esprit critique, plus d’empathie, et moins de goût du sensationnel. Et nous pouvons soutenir celles et ceux dont le visage devient une cible.
Peut-être est-ce là l’enjeu principal de ce cas : il nous oblige à poser des questions repoussées depuis trop longtemps. Comment définir la “vérité” quand les images sont manipulables ? Comment protéger celles et ceux qui deviennent, malgré eux, les protagonistes d’un spectacle qu’ils n’ont jamais “réservé” ? Et que faire de notre propre trace numérique, qui grossit chaque jour - à chaque selfie, chaque story, chaque reel ? Voir Collien aujourd’hui, ce n’est pas seulement voir une animatrice connue. C’est voir aussi une femme qui incarne, par procuration, ce passage absurde et inquiétant : de la réputation “analogique” à une identité numérique copiable à tout instant.
| Point clé | Détail | Bénéfice pour le lecteur |
|---|---|---|
| Les deepfakes frappent des personnes réelles | Le cas Collien montre comment une seule vidéo peut déplacer des biographies, des émotions et la perception publique | Sensibilisation accrue aux conséquences derrière le réflexe “ce n’est qu’un clip” |
| La prise de parole publique peut protéger | Parler ouvertement enlève aux auteurs l’effet de surprise et casse la spirale de la honte | Encouragement à ne pas endurer en silence des expériences vécues par soi-même ou par d’autres |
| Notre comportement compte | Chaque clic, chaque partage, chaque commentaire participe à façonner la façon dont on traite les deepfakes | Levier concret pour adopter au quotidien un rapport plus responsable aux contenus |
FAQ :
- Question 1 Que s’est-il exactement passé dans le cas de Collien Ulmen-Fernandes ?
- Réponse 1 Son visage a été inséré via une technologie d’IA dans une vidéo qui laisse entendre qu’elle ferait partie d’un contenu qu’elle n’a jamais produit ni validé - un deepfake classique, qui sexualise et déforme son image.
- Question 2 Les deepfakes visant des célébrités sont-ils évalués différemment en droit que ceux visant des personnes privées ?
- Réponse 2 Les célébrités ont certes une forte exposition publique, mais elles disposent aussi d’un droit à l’image et au respect de leur personnalité ; des deepfakes non autorisés peuvent porter atteinte aux droits de la personnalité, aux droits d’auteur et, dans certains cas, au droit pénal - pour les personnes privées, l’impact est souvent encore plus brutal, car elles n’exercent généralement pas un “métier d’exposition publique”.
- Question 3 Comment puis-je repérer moi-même qu’une vidéo pourrait être un deepfake ?
- Réponse 3 Observe des clignements d’yeux anormaux, de légères déformations autour de la bouche et des yeux, des reflets de lumière incohérents ou des voix qui sonnent subtilement “à côté” ; en cas de doute, une recherche d’image inversée ou la comparaison avec des sources fiables peut aider.
- Question 4 Que puis-je faire si je trouve un deepfake me concernant ?
- Réponse 4 Documenter (captures d’écran, liens), signaler à la plateforme, demander un avis juridique et, si possible, chercher des alliés - amis, organisations, voire contacts journalistiques capables de relayer le sujet.
- Question 5 Comment soutenir une personne touchée dans mon entourage ?
- Réponse 5 Prends son ressenti au sérieux, ne minimise pas, aide à conserver les preuves et à contacter des services de conseil ou des avocats, et reste présent lorsque la charge émotionnelle augmente ; des phrases simples comme « Tu n’as rien fait de mal » sont souvent plus puissantes qu’elles n’en ont l’air.
Commentaires
Aucun commentaire pour le moment. Soyez le premier!
Laisser un commentaire