Tutoriel : comment installer et utiliser Easy Diffusion pour générer des images avec l'IA en local sur votre ordinateur

Easy Diffusion est un logiciel open source qui permet de générer des images avec l'IA grâce au modèle Stable Diffusion, le tout en local sur votre ordinateur.

Si Easy Diffusion n'atteint pas encore le niveau de performance de Midjourney, il a l'avantage d'être gratuit et d'autoriser la création d'images sans censure (pour le meilleur et pour le pire...).

L'installation sur Windows s'effectue traditionnellement via un fichier exécutable. Pour Linux, c'est un peu plus compliqué mais, avec le tutoriel ci-dessous rien d'insurmontable !

https://easydiffusion.github.io/

Installation pour Linux (Mint/Ubuntu) :

1. Téléchargez l'archive Easy-Diffusion-Linux.zip depuis cette page.

2. Dézippez le fichier que vous venez de télécharger.

3. Allez dans le dossier qui a été extrait (nommé easy-diffusion) (1), faites un clic droit dans ce dernier et choisissez Ouvrir dans un terminal (2). Collez (CTRL + MAJ + V) la commande suivante : sudo ./start.sh (3).


4. Le processus d'installation débute le téléchargement des fichiers requis. En fonction de la rapidité de votre connexion internet, cela peut prendre plus ou moins de temps. 

Une fois l'installation achevée : laissez le terminal ouvert, allez dans votre navigateur et collez l'url ci-dessous pour entrer dans l'interface graphique de Easy Diffusion : 

http://localhost:9000/

Si cela ne fonctionne pas : redémarrez l'ordinateur. Au redémarrage : retournez dans le dossier easy-diffusion, faites un clic droit, choisissez Ouvrir dans un terminal et collez la commande sudo ./start.sh. Le terminal va démarrer le programme. Laissez le terminal ouvert et collez l'url http://localhost:9000/ dans le navigateur. A ce stade, vous avez accès à l'interface de Easy Difffusion.

En cas de mise à jour du programme, celle-ci s'effectuera lors du démarrage.

Comment créer des invites (prompts) :

1. Créez des invites courtes en anglais ou en français. Pour une meilleure compréhension par l'IA, préférez l'anglais.

2. N'écrivez pas de phrases complètes.

3. Séparez les différents éléments de votre image par des virgules.

4. Vous pouvez ajouter des "styles" à vos invites définis par des mots clés comme : highly detailed, 4k, anime, oil painting, high resolution, ghibli inspired, fantasy, concept art, Sunset, Afternoon, Beautiful, Symmetric, steampunk, Picasso, Dream,  Snow, Pixel art, Sunset Beach Photo, ect...

Exemple : paintinf of a hut in the forest, highly detailed, concept art

Pour trouver des "styles", consultez les exemples depuis les sites ci-dessous :

https://proximacentaurib.notion.site/invites

https://www.stable-diffusion-france.fr/styles-list.php

https://openart.ai/promptbook

https://strikingloo.github.io/stable-diffusion-vs-dalle-2#prompt-examples-and-experiments

https://www.sdprompt.it/ 

https://majinai.art/

https://replicate.com/guides/stable-diffusion/image-to-image 

https://publicprompts.art/

https://openart.ai/discovery

Certains styles sont disponibles directement depuis l'application. Allez dans Image Modifiers :

 

5. Il est possible de mettre l'accent sur un ou plusieurs éléments de l'invite en utilisant des parenthèses sur un ou plusieurs mots clés suivis d'un chiffre représentant son degré d'importance.

Exemple : fille sur une (balançoire)1,2 (herbe verte)1,0 (pantalon rose)0,8

Vous pouvez aussi utiliser les symboles + et - :

Exemple : fille sur une (balançoire)++ (herbe verte)+ (pantalon rose)-

6. Pour tester les variantes d'une invite, utilisez des accolades {} et plusieurs mots clés séparés par une virgule.

Exemple : man riding a {horse, bike}

Cette invite va créer l'image d'un homme sur un cheval et une autre d'un homme sur un vélo.

7. Utilisez des accolades, des virgules et des barres obliques pour créer 2 images différentes en même temps.

Exemple : {un grand\, cheveux brun\, yeux verts\, homme, une petite\, cheveux blonds\, yeux bleus\, femme}.

Rouge = invite de l'image 1 / Vert = invite de l'image 2

Les virgules déterminent les éléments de l'image.

Les barres obliques permettent de continuer à paramétrer les éléments d'une image sans que ceux-ci se mélangent avec l'autre.

8. Utilisez une barre verticale pour créer plusieurs images avec des styles différents.

Exemple : girl holding a rose | illustration | cinematic lighting

Cette invite va créer 4 images avec les paramètres suivants :

  • girl holding a rose
  • girl holding a rose, illustration
  • girl holding a rose, cinematic lighting
  • girl holding a rose, illustration, cinematic lighting

9. Dans Negative prompts, décrivez ce que le programme ne doit pas générer :

Exemples : Deformed, blurry, bad anatomy, disfigured, poorly drawn face, mutation, mutated, extra limb, ugly, poorly drawn hands, missing limb, blurry, floating limbs, disconnected limbs, malformed hands, blur, out of focus, long neck, long body, mutated hands and fingers, out of frame, ect...

Explications des options dans Image Settings  :

Seed : chiffre qui est aléatoirement généré par l'application et qui est à ne pas modifier sauf si vous souhaitez créer une image identique mais avec des variations.

Exemples : 

invite - portrait of a girl / seed : 438233955

invite - portrait of a girl, smiling / seed : 438233955

invite - portrait of a girl, sad / seed : 438233955

Le logiciel va générer des images identiques avec le même personnage mais avec des expressions faciales différentes.

Model : il est possible d'installer des versions différentes du modèle de Stable Diffusion dans l'application, voir des modèles extérieurs. Ceux-ci s'installent dans le répertoire models\stable-diffusion.

Clip Skip : réduit la "précision" du modèle de texte, ce qui peut être bénéfique pour certains modèles ou LORAs.

ControlNet : permet de sélectionner une image qui va guider l'IA lors de la génération (attitude/pose corporelle des individus).

exemples : https://openposes.com/ https://app.posemy.art/ https://openposeai.com/

VAE Variational Auto Encoder : les VAE sont utilisés pour améliorer les images générées. Il est possible d'en ajouter dans l'application en les copiant dans le répertoire models/vae.

Samplers : Easy Diffusion propose différents "échantillonneurs", qui créent des images légèrement différentes. Essayez ces échantillonneurs pour trouver celui qui convient le mieux à l'image que vous tentez de créer.

Inference Steps : Il s'agit du nombre d'étapes que le modèle prendra pour générer votre image. Un plus grand nombre d'étapes augmente la qualité de la sortie mais, la génération prend plus de temps. Valeurs possibles : de 20 à 50.

Guidance Scale : l'échelle d'orientation indique au modèle dans quelle mesure le résultat doit être similaire à l'invite. Valeurs possibles recommandées entre 7 ou 9 . Augmenter la valeur si les résultats de correspondent peu à l'invite. Baisser la valeur pour plus de créativité (1 au minimum et 20 au maximum).

LoRA (Learn On Reconstruction and Attention) : extension du modèle Stable Diffusion original qui permet d'obtenir des résultats plus précis et créatifs, mais qui nécessite un peu plus de connaissances techniques pour être utilisé efficacement.

Seamless Tiling : permet de créer des textures répétitives pour les jeux, des arrière-plans pour des affiches, des papiers peints, etc.

Fix incorrect faces and eyes : corrige les erreurs de génération des yeux et du visage.

Scale-up : augmente la résolution d'une image générée.

Trouver des LoRA / modèles : 

https://civitai.com/tag/lora

https://huggingface.co/models?other=stable-diffusion 

https://www.deviantart.com/tag/stable_diffusion

Derniers mots

Dans de prochains articles, nous verrons :

  • comment ajouter des modèles et des VAE afin d'améliorer les images générées
  • comment installer d'autres logiciels plus complets utilisant le modèle stable diffusion.

Pour consulter ces articles à venir (ou parus depuis), cliquez sur ici.

maj le 27/04/24

Enregistrer un commentaire

Les commentaires sont validés manuellement avant publication. Il est normal que ceux-ci n'apparaissent pas immédiatement.

Plus récente Plus ancienne