Le groupe Internet va labelliser et signaler les images créées par l’intelligence artificielle et publiées sur ses différents réseaux sociaux.
Signaler, étiqueter, marque, labelliser…
Depuis plusieurs mois le groupe Internet Meta (maison mère de Facebook, WhatsApp, Instagram, et Threads) cherche à adopter la meilleure solution qui soit pour que ses utilisateurs puissent identifier et distinguer facilement une image créée avec l’aide d’une intelligence artificielle d’une image normale créée par une source humaine.
Depuis la fin de l’année 2023, l’entreprise appliquait déjà une étiquette “Imaginé avec l’intelligence artificielle” aux contenus développés avec l’aide de sa solution Meta AI (toujours indisponible en Europe) ; le fichier informatique intégrant des métadonnées précisant la nature de l’image.
Prochaine étape pour Meta en 2024 (dans les mois à venir), utiliser les métadonnées intégrées sur les images générées via des outils comme Midjourney, Dall-E, Microsoft Copilot ou Google Bard pour marquer lesdites images d’un label et les signaler aux utilisateurs.
Etiqueter les vidéos manipulées
Un système que Meta reconnaît comme étant cependant imparfait et contournable, rapporte Le Figaro et qui de plus ne devrait fonctionner ni avec les fausses vidéos ni avec les faux fichiers audio.
Selon le conseil de surveillance du groupe Internet cette adaptation à la réalité technologique est d’autant plus importante que l’année 2024 va être marquée par un nombre record d’élections et donc de campagnes électorales à travers le monde.
Des campagnes électorales qui seront autant d’occasions de voir se développer des tentatives de manipulation des opinions publiques.
Meta doit «commencer à étiqueter les contenus manipulés, tels que les vidéos modifiées par l’intelligence artificielle (IA) ou d’autres moyens, lorsque ces contenus sont susceptibles de causer un préjudice», ordonne le conseil de surveillance dans un communiqué.