ChatGPT, Dall-E, OpenAI : Vos images générées par IA bientôt filigranées

La nouvelle fait déjà frémir une partie des utilisateurs d’intelligence artificielle. OpenAI teste l’ajout d’un filigrane invisible sur les images générées avec son outil DALLE-E, intégré à ChatGPT.

Une option repérée dans la version bêta de l’application Android évoque une future généralisation de ce marquage. Objectif : identifier les images générées automatiquement, et les distinguer des créations humaines.

🔗 À lire sur notre site: L’intégration de l’IA dans les applications comme Duolingo fait fuir les abonnés 

Une fonctionnalité détectée en mode furtif

C’est dans le code interne de l’application ChatGPT, version bêta, que l’information a fuité. Une mention explicite, “image-gen-watermark-for-free”, a été repérée par plusieurs spécialistes.

Tom’s Guide  affirme que l’option “Save without watermark” serait réservée aux utilisateurs payants. Cela signifie que les utilisateurs gratuits verraient leurs images systématiquement marquées par des filigranes, sauf changement de stratégie d’ici le lancement officiel.

Pourquoi OpenAI veut imposer un filigrane ?

La réponse est simple : lutter contre les manipulations visuelles et la désinformation. Aujourd’hui, il devient de plus en plus difficile de savoir si une image est réelle ou générée par IA. Ainsi, le filigrane même invisible à l’œil nu agirait comme une signature numérique intégrée à l’image, permettant à des outils de vérification de tracer son origine. Un pas vers plus de transparence dans l’écosystème numérique.

Une fonctionnalité qui pourrait diviser les utilisateurs

Certains y voient une avancée vers une IA plus responsable. D’autres craignent une restriction d’usage ou un biais commercial. Car en réservant la suppression du filigrane aux abonnés payants, OpenAI introduit une différence de traitement entre utilisateurs. D’un côté, les créateurs professionnels pourraient payer pour des visuels “propres”. De l’autre, le grand public serait limité à des images estampillées, même si le marquage reste invisible.

Les risques d’un Internet « filigrané »

Ce test pose plusieurs questions :

  • Le filigrane sera-t-il réellement infalsifiable ?
  • Les utilisateurs auront-ils le droit de modifier ou supprimer cette signature ?
  • Cela ne favorisera-t-il pas l’émergence d’outils pirates pour effacer les marques ?

Comme l’explique PCWorld, OpenAI n’a “pas encore confirmé officiellement” ce déploiement, mais les indices sont trop nombreux pour n’y voir qu’un simple test.

vers une nouvelle norme visuelle ?

Le filigrane IA pourrait bien devenir la nouvelle norme dans la création d’images automatisées. Si OpenAI décide de le déployer officiellement, cela changera la manière dont nous produisons, partageons et interprétons les images en ligne. Et cela ne concerne pas que les professionnels : des millions d’utilisateurs utilisent déjà DALL·E chaque jour dans ChatGPT.

À l’heure où l’intelligence artificielle devient un outil de création grand public, le filigrane pourrait être la première barrière contre les abus… ou une nouvelle limite imposée à la liberté de création.

 

Partager :
Retour en haut