Face à la montée en flèche des images générées par intelligence artificielle, Columbia Journalism Review et l’agence TBWA\Chiat\Day New York lancent une campagne aussi brillante que nécessaire.
Son nom : The PSAi. L’objectif est simple, mais ambitieux : éduquer le grand public à repérer les faux visuels créés par IA, en utilisant justement… l’IA elle-même. Un clin d’œil malin pour répondre à l’un des enjeux les plus cruciaux de l’information aujourd’hui : distinguer le vrai du faux à l’ère des algorithmes.
Quand l’IA s’infiltre dans nos fils d’actu, sans qu’on la voie venir
Chaque jour, ce sont 34 millions d’images générées par IA qui apparaissent en ligne. Certaines sont drôles, d’autres artistiques, mais beaucoup peuvent semer la confusion. Et ça fonctionne : selon une étude menée auprès de 2 000 Américains, 76 % des participants étaient incapables d’identifier une image fausse générée par IA. Pire encore, les fausses images sont aujourd’hui la source de 80 % des désinformations visuelles sur les réseaux sociaux.
Face à ce raz-de-marée numérique, le Columbia Journalism Review, publication de référence sur la critique des médias, prend position avec un message clair : le journalisme ne peut plus être seul garant de la vérité. Dans un écosystème dominé par la viralité et les partages instantanés, nous sommes tous devenus des faiseurs de news, qu’on le veuille ou non.
Une campagne musicale et virale pour lutter contre les fausses images
Pour frapper fort, la campagne The PSAi prend la forme d’un clip musical coloré, diffusé sur les réseaux sociaux. On y retrouve les images virales générées par IA les plus célèbres (comme le Pape en doudoune ou Trump arrêté par la police), animées avec humour et pédagogie. Chaque image est disséquée pour montrer les détails qui trahissent l’intelligence artificielle : ombres incohérentes, proportions étranges, textures floues, autant de petits indices qui permettent d’y voir plus clair.
LIRE AUSSI : The New Yorker célèbre 100 ans de couvertures avec un film exceptionnel
Le choix du format musical n’est pas anodin. Il permet de rendre l’information accessible et mémorable, sans tomber dans la leçon moralisatrice. En gros, on apprend à se méfier des fausses images en se divertissant, et c’est bien là la force de cette initiative. Loin d’être un projet anti-IA, la campagne assume pleinement que l’intelligence artificielle a aussi servi à créer cette œuvre pédagogique.
Une alerte sur la confiance et la responsabilité collective
Dans cette campagne, Columbia Journalism Review ne se contente pas d’alerter sur les dangers de l’IA. Il s’agit surtout de redonner du pouvoir au public. Selon Betsy Morais, rédactrice en chef par intérim, la mission est claire : sensibiliser chacun à son rôle dans la diffusion de l’information. Car si une image trafiquée fait le tour du web, c’est bien parce qu’on l’a aimée, partagée, commentée.
Pour aller plus loin, une série d’articles complémentaires est publiée sur le site du CJR tout au long de la semaine. On y découvre des témoignages de journalistes, de chercheurs, de photographes de presse, tous confrontés à l’IA au quotidien. Parmi eux, Laura Preston, journaliste spécialisée en IA, raconte même comment elle s’est laissée guider par ChatGPT pour suivre l’actualité. Le message est clair : l’IA est partout, alors mieux vaut apprendre à en maîtriser les codes.
LIRE AUSSI : Amnesty International frappe fort avec une campagne brutale sur la liberté de la presse