En direct
A suivre

Fake news : Midjourney, DALL-E... Voici comment reconnaître une photo générée par une IA

Eliot Higgins, fondateur du site d'investigation Bellingcat, a créé de fausses images d'une arrestation de Donald Trump grâce au logiciel Midjourney. [Twitter/@EliotHiggins]

D'un réalisme troublant, les images générées par l'intelligence artificielle peuvent accorder du crédit aux fake news. Il existe toutefois des astuces pour les repérer.

Grâce ou à cause de l'intelligence artificielle (IA), les propagateurs de fake news ont une nouvelle corde à leur arc. Ils sont désormais capables, via différents logiciels, de générer des images fictives et pourtant très réalistes. Certaines d'entre elles, reliées à l'actualité, ont semé la confusion ces dernières semaines. Il est toutefois possible de les différencier de vrais clichés, si l'on sait quoi chercher.

Récemment, des photos d'une arrestation de l'ancien président américain Donald Trump ou celle du président Emmanuel Macron en train de ramasser les poubelles ont fait réagir sur les réseaux sociaux. Elles ont en commun d'avoir été générées par des logiciels reposant sur l'intelligence artificielle, tels que Midjourney, DALL-E ou encore Stable Diffusion.

Tous fonctionnent à partir d'une immense base de données, sans cesse alimentée. Selon la demande de l'utilisateur, l'IA crée une image à partir de nombreuses autres. «Elle ne prélève généralement pas des parties d'une seule et même photo» mais en utilise «des milliers voire des millions [...] pour prendre en compte des milliards de paramètres», précise David Fischinger, ingénieur à l'institut technologique autrichien et spécialiste de l'IA.

Cette déconstruction est suivie de la reconstruction «pixel par pixel» d'une nouvelle image créée de toutes pièces. Pour l'instant ce processus trouble les programmes de détection de fausses images, qui peinent encore à identifier les clichés ainsi générés, ajoute Vincent Terrasi dont la startup, Draft & Goal, développe justement un détecteur de contenus issu de l'IA.

En attendant que cette technologie s'affine, il convient donc d'être attentif à certains points pour démêler le vrai du faux. Certains logiciels facilitent la tâche en laissant une signature visuelle. C'est le cas de DALL-E, qui marque le coin droit de chacun de ses clichés d'une barre multicolore. «Le grain de l'image», «très différent» de celui d'une vraie photo, peut aussi être un indice selon Tina Nikoukhah, docteur en traitement d'images.

Il faut également savoir que l'IA présente des lacunes récurrentes qui mènent à des incohérences visuelles. Les mains des personnes représentées sont par exemple très souvent déformées. C'est le cas sur une (fausse) photo d'une manifestation contre la réforme des retraites. On y voit une manifestante, enlacée par un CRS qui a six doigts.

Des asymétries sont souvent présentes, avec des visages potentiellement disproportionnés, des oreilles à des hauteur différentes. Il n'est pas rare que les dents et les cheveux des protagonistes aient aussi un aspect étrange. Vincent Terrasi souligne par ailleurs que les IA ont «énormément de mal à générer les reflets». Un bon moyen de repérer leurs créations est donc «de chercher des ombres, des miroirs, de l'eau, mais aussi de zoomer sur les yeux» des protagonistes.

Puisque le cliché créé par IA est un mélange de plusieurs autres images, les experts conseillent également de scruter de potentiels changements de lumière. Globalement, c'est au niveau de l'arrière plan de la photo que l'IA a le plus de chances de se trahir. Car «plus un élément va être lointain, plus un objet va être flou, déformé et avoir des perspectives incorrectes», explique le cofondateur de Draft & Goal.

Sur certaines fausses photos de l'arrestation de Donald Trump, le visage de plusieurs policiers est flou et des bras et des jambes d'agents apparaissent ça et là, sans cohérence. Dans le fond des images fictives montrant Barack Obama et Angela Merkel à la plage, une personne a les jambes coupées et, sur un cliché d'une rue de Paris généré par Midjourney, on peut voir un panneau sens interdit de couleur bleue.

Ces indices visuels sont précieux mais «les IA s'améliorent de jour en jour» et on ne pourra sans doute pas toujours compter sur ce genre d'anomalies pour détecter les fausses images, alerte Annalisa Verdoliva, professeure à l'université Frédéric-II de Naples.

En leur absence, il faudra redoubler de vigilance et procéder à quelques vérifications pour éviter d'être piéger. La recherche par image et une bonne piste, puisqu'elle permet de remonter à la source de la publication. Dans le cas de la fausse arrestation de Donald Trump, une recherche inversée menait ainsi à un tweet d'Eliot Higgins, fondateur du site d'investigation Bellingcat, qui expliquait avoir créé ces clichés via Midjourney.

L'un des bons réflexes est aussi de comparer toute image suspecte à d'autres photos du même événement issues d'une ou plusieurs sources fiables. Cette technique permet par exemple de s'apercevoir que le cliché de Vladimir Poutine agenouillé devant Xi Jinping est un faux. Il présente un décor très différent de celui qui apparait sur les véritables photos de la visite du président chinois au Kremlin.

À suivre aussi

Ailleurs sur le web

Dernières actualités