
OpenAI, élargit les capacités de son modèle GPT-4o. Désormais, il ne se contente plus de générer du texte et comme vous le saviez déjà, maintenant il peut aussi créer des images à partir d’une description ou modifier une photo existante. Cette fonctionnalité, déjà proposée par des concurrents comme Meta AI ou Gemini de Google, s’accompagne d’une nouveauté : des filigranes pour marquer les images produites.
Avec GPT-4o, vous pouvez demander une illustration, par exemple, une scène dans le style des films Studio Ghibli (Voir cet article pour apprendre comment), ou transformer une image en quelques clics. L’outil suscite la patience, notamment sur les réseaux sociaux comme X, où des utilisateurs partagent des créations originales. Mais l’accès est limité : les comptes gratuits sont plafonnés à deux images par jour, tandis que les abonnés payants (ChatGPT Plus, 20 $ par mois) profitent d’une plus grande liberté.
Pour gérer cette différence, OpenAI teste un système de filigranes. Les images générées par les utilisateurs gratuits porteraient une marque visible (un watermark), un peu comme sur les banques d’images gratuites type Shutterstock. Et cela est pour objectif de limiter les abus, encourager les abonnements et mieux identifier les créations issues de l’IA. Des experts, comme Tibor Blaho (X/Twitter @btibor91), ont repéré cette intégration dans l’application ChatGPT, confirmant qu’elle est déjà en cours de déploiement.
Ce choix n’est pas surprenant. Meta AI et Gemini utilisent des filigranes depuis leurs débuts dans la génération d’images, souvent sous forme de logos ou de texte discret. Pour OpenAI, il s’agit de suivre cette tendance tout en répondant à un nouveau problème causé par l’émergence massive de ces IA : distinguer les créations humaines des productions automatisées. Avec la montée des deepfakes et des contenus trompeurs, cette transparence devient essentielle, comme le souligne plusieurs experts sur l’éthique de l’IA.
Les filigranes pourraient aussi protéger OpenAI sur le plan légal. En marquant ses images, l’entreprise limite les risques d’utilisation abusive, comme la diffusion de fausses informations ou la violation de droits d’auteur. Un équilibre délicat, alors que la génération d’images par IA reste un sujet sensible.