Aujourd’hui, une photo de Donald Trump arrêté par la police peut faire le tour du monde avant que quelqu’un ne se rende compte… qu’elle n’a jamais existé. Les images générées par intelligence artificielle (IA) se multiplient sur les réseaux, parfois pour le divertissement, parfois pour désinformer. Mais une question persiste : comment savoir si une image a été créée par une IA ? Et surtout, pourquoi est-ce devenu si difficile ?
Les outils comme Midjourney, DALL·E ou Stable Diffusion ont démocratisé la création d’images bien avant le fameux Nanobanana de Google/Gemini, qui marque un tournant en combinant des capacités professionnelles à une vitesse de génération «Flash».
En quelques secondes, il suffit de taper une phrase comme “une femme en armure sous la pluie, style réaliste” pour obtenir une image bluffante et hyper réelle. Résultat : n’importe qui peut produire une photo “trop belle pour être vraie”. Et bien souvent, elle l’est. Si ces technologies sont fascinantes pour les artistes ou les créateurs de contenu, elles posent un vrai problème dans un monde où une image suffit à créer le doute : politique, désinformation, fake news… L’IA brouille les frontières entre le réel et le faux.
Heureusement, des outils commencent à émerger pour nous aider à distinguer le vrai du faux :
Déjà abonné ? Connectez-vous...
