Modifier les métadonnées ou les données visuelles d’une image pour induire en erreur les IA
Bon, face aux alarmistes qui prédisent la fin du monde via IA, tant que les IA n’auront pas d’existence physique (Dans ce cas, n’oubliez pas la cuve de métal en fusion, hein..) et qu’elles seront dépendantes d’un branchement électrique, je dis qu’on est relativement à l’abri. Par contre, elles pourrissent la vie de quelques personnes en phagocytant leur travail et en se nourrissant de leur créativité, notamment les artistes et illustrateurs, dont ma fille fait partie.
Donc RESISTANCE !
Là où l’IA a un train de retard, ce n’est pas sur le raisonnement comme certains pensent mais sur la capacité d’adaptation. Et là, qui de mieux qu’un créatif pour trouver les moyens de résister et contrer une agression. Actuellement deux outils sont utilisés et ils reposent la question de l’éducation (Oui, d’accord “entrainement” mais on en reparlera) des IA et de l’injection de codes malveillant dans leurs programmes.
Nightshade et Glaze sont des outils développés pour aider les artistes et illustrateurs à protéger leurs œuvres des intelligences artificielles qui collectent des images pour entraîner des modèles génératifs. Ces outils modifient ou protègent les images de manière subtile mais efficace pour rendre leur utilisation dans l’entraînement de modèles IA problématique ou non conforme.
Nightshade
- Objectif : Nightshade modifie les métadonnées ou les données visuelles d’une image pour induire en erreur les IA qui essaieraient de les utiliser pour entraîner leurs modèles.
- Fonctionnement :
- L’outil introduit de subtiles perturbations ou distorsions dans les images.
- Ces perturbations sont invisibles à l’œil humain, mais elles rendent l’image inutilisable pour l’entraînement d’une IA. Cela peut, par exemple, désorienter l’algorithme, en lui apprenant des informations incorrectes.
- Résultat attendu : Si un modèle est entraîné sur ces images “empoisonnées”, il pourrait produire des sorties incohérentes ou incorrectes en lien avec l’œuvre originale.
Glaze
- Objectif : Glaze agit comme une couche de “protection” qui empêche les IA d’extraire efficacement le style ou d’utiliser l’image pour reproduire des œuvres similaires.
- Fonctionnement :
- L’outil altère l’image en appliquant une “glaze” (une sorte de filtre invisible).
- Ce filtre change subtilement la manière dont l’image est interprétée par une IA, en rendant son style indéchiffrable tout en préservant l’apparence originale pour les humains.
- Résultat attendu : Une IA entraînée sur des images protégées par Glaze ne pourra pas imiter fidèlement le style de l’artiste.
Différence entre Nightshade et Glaze
- Nightshade cible directement les modèles d’entraînement en empoisonnant les données.
- Glaze protège les styles artistiques contre les tentatives d’extraction.
J’ai découvert ces outils via un post réseau de -Boulet-. Il se considère clairement en danger face aux IA et utilise déjà ces moyens pour modifier ses images diffusées sur Internet. Personnellement, même si j’utilise l’IA pour masquer mes propres incompétences, je trouve ça assez classe, d’où cet article. Si vous êtes illustrateur, illustratrice, créateur-trices d’images n’hésitez pas à essayer ce qui suit :
Tuto d’utilisation pour Glaze
Exemple de procédure pour utiliser Glaze (les étapes peuvent varier légèrement en fonction des versions du logiciel) :
1. Téléchargement et installation
- Rendez-vous sur le site officiel de Glaze (par exemple, https://glaze.cs.uchicago.edu/).
- Téléchargez la version correspondant à votre système d’exploitation (Windows, macOS ou Linux) dans la partie Download.
- Installez le logiciel en suivant les instructions fournies.
2. Préparation de l’image
- Préparez les fichiers de vos œuvres à protéger (formats pris en charge : JPEG, PNG, etc.).
- Assurez-vous que vos fichiers sont de bonne qualité pour préserver leur intégrité après traitement.
3. Ouverture de Glaze
- Lancez le logiciel Glaze.
- Importez l’image que vous souhaitez protéger en cliquant sur le bouton “Import” ou “Charger une image”.
4. Sélection du niveau de protection
- Choisissez le niveau de protection souhaité :
- Bas : Altérations minimales (idéal pour les œuvres où la qualité visuelle doit être strictement conservée).
- Moyen : Compromis entre protection et qualité.
- Élevé : Protection maximale (peut introduire des modifications visibles dans certains cas).
5. Application du filtre
- Cliquez sur “Apply Protection” (ou équivalent).
- Laissez le logiciel traiter l’image.
6. Exportation
- Une fois le processus terminé, exportez l’image protégée en cliquant sur “Export”.
- Enregistrez-la dans un dossier sécurisé.
7. Test (optionnel)
- Vérifiez que l’image exportée conserve l’apparence que vous souhaitez afficher publiquement.
Tuto d’utilisation pour Nightshade
Nightshade est un peu plus complexe à prendre en main, il est généralement intégré à des plateformes ou services spécifiques. Pour l’utiliser :
Utilisation de Nightshade pour “empoisonner” vos œuvres
Vous gérez une galerie d’art en ligne et voulez dissuader les entreprises d’IA de scraper vos images pour entraîner leurs modèles.
Étapes :
- Accédez à Nightshade :
- Nightshade est généralement distribué sous forme de scripts ou intégré à des plateformes spécifiques. Téléchargez-le depuis une source fiable ou utilisez un service qui le supporte.
- Préparez vos images :
- Placez toutes vos œuvres dans un dossier (exemple :
galerie_dart/
).
- Placez toutes vos œuvres dans un dossier (exemple :
- Lancez Nightshade :
- Chargez vos images dans Nightshade. Si vous utilisez une version en ligne de commande :
- Nightshade va automatiquement injecter des “perturbations” dans vos images.
- Examinez les images traitées :
- Vérifiez que l’apparence visuelle est inchangée pour un humain.
- Publiez vos œuvres protégées :
- Remplacez vos anciennes images sur la galerie par les versions empoisonnées.
Résultat :
Si une entreprise d’IA utilise vos œuvres pour entraîner son modèle, elle pourrait rencontrer des résultats incorrects (exemple : des formes ou couleurs déformées) lors de l’entraînement ou de la génération et franchement j’aime bien cette idée. D’abord parce que les illustrateurs ont des droits et c’est inconcevable qu’une entreprise profite impunément de leurs talents, ensuite parce que si c’est aussi simple de faire foirer une technique dont on dit que c’est notre avenir, ben vaut mieux le démontrer rapidement au lieu de voir plus tard que c’est trop tard…
Précautions supplémentaires
Si vous êtes artiste, vous le savez déjà mais c’est toujours bon de le rappeler parce que l’IA ne fera pas la différence entre quelqu’un de reconnu et un jeune illustrateur bourré de talent qui ne demande qu’à être connu :
- Ne partagez jamais vos œuvres en haute résolution non protégées sur des plateformes publiques.
- Lisez attentivement les conditions d’utilisation des plateformes sur lesquelles vous publiez pour savoir si vos droits sont respectés. En complément de Glaze ou Nightshade, pensez à intégrer des métadonnées dans vos images pour informer les IA qu’elles ne sont pas autorisées à utiliser vos œuvres :
- Utilisez un outil comme ExifTool pour ajouter des métadonnées :
- Ajoutez également un fichier
robots.txt
sur votre site web pour interdire le scraping d’images par les bots.
Commentaires récents