Images générées par l’IA : réalisme croissant et enjeux pour la vérification

British Prime Minister Keir Starmer visits

Britain's Prime Minister Keir Starmer delivers remarks during a joint press conference with Turkey's president after signing an $11 billion agreement for 20 Eurofighter jets at the Presidential Palace in Ankara on October 27, 2025. Starmer said London had reached an agreement to sell Eurofighter jets to Ankara in a 10-year deal worth nearly $11 billion. Britain's defence ministry said the order would involve 20 Eurofighters in what it described as the "biggest fighter jet deal in a generation". (Photo by Adem ALTAN / AFP)

Images générées par l’IA et réalisme croissant

Des capsules vidéos entièrement créées grâce à des outils d’intelligence artificielle tels que Sora2, développé par OpenAI, l’éditeur de ChatGPT, circulent désormais sur les réseaux sociaux. Si Sora2 est pour l’instant accessible principalement aux États‑Unis et au Canada, les vidéos produites par l’IA se diffusent jusqu’en Suisse et au-delà.

Ces contenus brouillent la frontière entre réalité et virtuel et nourrissent des polémiques, notamment autour de l’utilisation d’images de célébrités, parfois décédées, dont l’image pourrait enfreindre le droit d’auteur.

Comment notre cerveau perçoit le réalisme des images

Selon le psychologue Niels Weber, le cerveau n’est pas difficile à tromper et peut être convaincu par des images générées par l’IA. Ce phénomène s’inscrit dans une lignée de procédés visant à faire croire à l’existence d’une image réelle, comparable à des illusions d’optique, des effets spéciaux ou des trompe-l’œil.

Pour ce spécialiste, ce que nous vivons aujourd’hui rappelle ce que nos ancêtres ont connu lorsque Méliès a introduit les premiers effets spéciaux dans le cinéma. Les images générées par l’IA s’adaptent simplement aux moyens technologiques actuels et visent à capter l’attention des utilisateurs, ce qui les met en avant sur les plateformes.

Il faut toujours douter et s’éduquer

Il faut aujourd’hui douter et interroger tout ce que l’on voit sur les réseaux sociaux et les plateformes vidéo. Pour Niels Weber, il est utile d’adapter l’éducation aux médias pour les enfants autant que pour les adultes, afin d’apprendre à décoder et repérer les informations présentées dans ces vidéos.

Exemples d’indices à surveiller : des mouvements incohérents, des comportements étranges ou des éléments qui semblent hors contexte. L’exemple d’une fausse vidéo de surveillance montrant quelqu’un dans des toilettes avec un ours passant par la fenêtre illustre ce type d’écarts ; il convient de se questionner sur la logique de la scène.

Pour trouver des ressources et des conseils, certains comptes et outils en ligne proposent des astuces pour reconnaître les vidéos générées par IA.

Régulation européenne et risque de désinformation

En Europe, OpenAI devra respecter plusieurs cadres juridiques pour opérer. Bien que des garde-fous existent, des experts craignent que des applications similaires se déploient rapidement sans régulation suffisante, avec le risque de banaliser la désinformation et les fake news.

La question de la réduction de l’exposition aux fausses informations se pose: s’éloigner des réseaux sociaux peut apparaître comme une solution radicale, mais pour Niels Weber, ce n’est peut-être pas nécessairement le cas; cela pourrait devenir une conséquence si les utilisateurs se lassent des vérifications et estiment que les réseaux ne répondent plus à leurs attentes.