Des centaines de faux contenus générés par l’IA, exagérant la situation au Moyen-Orient, ont été visionnés et partagés des millions de fois sur les réseaux sociaux ces derniers jours.
Comme ce fut le cas en 2022 lors de l’invasion russe en Ukraine, un flot d’images générées par l’intelligence artificielle a inondé les réseaux sociaux depuis le début de la guerre en Iran, le 28 février.
Des images catastrophiques montrant des Israéliens courant se réfugier sous les bombes à Tel-Aviv, des militaires américains en larmes capturés par l’armée iranienne, des pluies de missiles ou encore le Premier ministre israélien Benyamin Netanyahou blessé dans un bombardement ont envahi la toile. Et à l’inverse des faux de 2022, le réalisme saisissant de ces contenus sensationnalistes les rend plus difficiles à détecter.
Des millions de vues
Le New York Times, qui a repéré plus de 110 photos et vidéos générées par l’IA, qualifie ce phénomène d’« arme informationnelle redoutable pour Téhéran », qui chercherait à « éroder la tolérance de l’opinion publique […] en diffusant des scènes de dévastation et de destruction à travers la région ».
Plusieurs de ces faux contenus, noyés dans le flux de vraies informations sur X, TikTok, Instagram et Facebook, ont été largement partagés par les internautes. Certains ont été visionnés des millions de fois. De nombreuses vidéos semblent filmées sur place par des téléphones, tandis que certaines photos aériennes paraissent plus officielles, prises depuis des satellites. Leur qualité est stupéfiante.
L’IA générative, un outil facile d’accès et d’utilisation
« Nous sommes probablement témoins d’une quantité de contenus générés par l’IA bien supérieure à tout ce que nous avons pu observer par le passé », analyse auprès du journal Marc Owen Jones, professeur en analyse des médias à l’Université Northwestern, au Qatar.
« L’utilisation d’images générées par l’IA représentant des sites du Golfe […] occupe une place de plus en plus importante dans la stratégie de l’Iran », poursuit le spécialiste, « car elle lui permet de donner l’impression que cette guerre est bien plus destructrice […] qu’elle ne l’est en réalité. »
Le contraste avec les contenus grossiers et mal faits sur la guerre en Ukraine, en 2022, est dû à au développement de l’IA générative, un outil libre d’accès et d’utilisation. « Ce qui a changé au cours de l’année écoulée, c’est que l’IA générative est devenue beaucoup plus largement accessible, confirme à CNN Shayan Sardarizadeh, journaliste chez BBC Verify et spécialiste de la démystification des faux contenus liés aux conflits armés. Il est désormais possible de créer des vidéos et des images très crédibles ».
« Ne faites confiance à personne en ligne »
Paradoxalement, le public en arrive à douter de la véracité d’images publiées dans la presse, car moins spectaculaires que celles générées par l’IA. Le New York Times a récemment fait les frais de cette confusion, se voyant obligé de défendre, dans un communiqué, l’authenticité d’une photo après des accusations « de manipulation numérique ».
L’afflux de faux contenus relatifs à la situation au Moyen-Orient contraint les journalistes à redoubler d’efforts pour vérifier l’authenticité des informations et des images auxquels ils ont accès.
En 2024, l’Onu classait la désinformation et la mésinformation à la deuxième place de sa liste des principaux risques mondiaux – derrière le réchauffement climatique –, les estimant capables de créer un « effondrement de la cohésion sociale ».
David Clinch, cofondateur de Storyful, une société spécialiste de la veille sur les réseaux sociaux, conseille au Guardian de ne faire « confiance à personne en ligne, y compris à vous-même. » Selon lui, il est désormais de la responsabilité de chacun de garder une certaine distance avec ce qui est visible en ligne et de vérifier ses sources, aussi « injuste » soit-il « pour les citoyens ».

Partager :