Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
|
ressource:code:images_et_ia:start [2023/06/05 10:30] emoc |
ressource:code:images_et_ia:start [2024/01/31 16:33] (Version actuelle) emoc [Stable Diffusion] |
||
|---|---|---|---|
| Ligne 44: | Ligne 44: | ||
| * https://rom1504.github.io/clip-retrieval/ | * https://rom1504.github.io/clip-retrieval/ | ||
| * Vos images personnelles ont-elles étés aspirés dans le dataset LAION-5B ? [[https://haveibeentrained.com/]]. | * Vos images personnelles ont-elles étés aspirés dans le dataset LAION-5B ? [[https://haveibeentrained.com/]]. | ||
| + | * LAION5B explained : https://www.ivanzhou.me/blog/2022/12/4/paper-explained-laion-5b | ||
| === aide à l'écriture de prompt === | === aide à l'écriture de prompt === | ||
| Ligne 50: | Ligne 51: | ||
| * Utiliser chatGPT pour écrire des prompts : https://www.reddit.com/r/StableDiffusion/comments/11ezpcg/chat_gpt_stable_diffusion_promt_generator/ | * Utiliser chatGPT pour écrire des prompts : https://www.reddit.com/r/StableDiffusion/comments/11ezpcg/chat_gpt_stable_diffusion_promt_generator/ | ||
| + | === temps réel avec Streamdiffusion === | ||
| + | |||
| + | * https://github.com/cumulo-autumn/StreamDiffusion | ||
| + | * https://alltd.org/real-time-diffusion-in-touchdesigner-streamdiffusiontd-setup-install-settings/ intégration dans touchdesigner | ||
| === divers === | === divers === | ||
| * https://www.reddit.com/r/StableDiffusion/ | * https://www.reddit.com/r/StableDiffusion/ | ||
| Ligne 71: | Ligne 76: | ||
| **deforum** : création d'animations à partir de prompts et d'indications sur l'animation (rotation, zoom, etc.) | **deforum** : création d'animations à partir de prompts et d'indications sur l'animation (rotation, zoom, etc.) | ||
| * https://deforum.github.io | * https://deforum.github.io | ||
| + | * https://github.com/deforum-art/deforum-stable-diffusion | ||
| * https://docs.google.com/document/d/1RrQv7FntzOuLg4ohjRZPVL7iptIyBhwwbcEYEW2OfcI/edit | * https://docs.google.com/document/d/1RrQv7FntzOuLg4ohjRZPVL7iptIyBhwwbcEYEW2OfcI/edit | ||
| + | * https://github.com/deforum-art/sd-webui-deforum/wiki | ||
| + | * https://aituts.com/deforum/ bonne intro | ||
| + | * https://stable-diffusion-art.com/deforum/ autre intro | ||
| + | * **https://rentry.org/AnimAnon-Deforum** tous les paramètres expliqués | ||
| + | * https://docs.google.com/document/d/1pEobUknMFMkn8F5TMsv8qRzamXX_75BShMMXV8IFslI/edit guide pour Deforumv05 (pdf possible) | ||
| + | * **https://rentry.org/AnimAnon excellent guide général sur l'animation** | ||
| + | * https://replicate.com/deforum/deforum_stable_diffusion/examples | ||
| + | |||
| + | **deforum/parseq** : parseq est un séquenceur de paramètres pour deforum | ||
| + | * https://rentry.org/AnimAnon-Parseq | ||
| + | * https://github.com/rewbs/sd-parseq | ||
| + | * un exemple : https://www.youtube.com/shorts/fgiev3A93RU | ||
| + | |||
| + | **diffusion** : procédé de création des images qui part d'une image bruitée pour la débruiter en la faisant correspondre au prompt | ||
| **dreambooth** : méthode pour compléter l'entrainement d'un modèle à partir de photos personnelles | **dreambooth** : méthode pour compléter l'entrainement d'un modèle à partir de photos personnelles | ||
| Ligne 90: | Ligne 110: | ||
| **invokeAI** : logiciel web pour générer des iamges (inpainting, outpainting, etc.) | **invokeAI** : logiciel web pour générer des iamges (inpainting, outpainting, etc.) | ||
| + | * https://github.com/invoke-ai/InvokeAI/blob/main/docs/features/UNIFIED_CANVAS.md | ||
| **Latent Couple** : composition controlée, segmentation, plusieurs prompts | **Latent Couple** : composition controlée, segmentation, plusieurs prompts | ||
| Ligne 112: | Ligne 133: | ||
| **paint-with-words** : segmentation d'iamges, multiples prompts | **paint-with-words** : segmentation d'iamges, multiples prompts | ||
| * https://github.com/cloneofsimo/paint-with-words-sd | * https://github.com/cloneofsimo/paint-with-words-sd | ||
| + | |||
| + | **prompt** : énoncé texte fourni pour produire l'image, selon les logiciels cet énoncé peut être renforcé par des signes de ponctuation (parenthèses, crochets, etc.) pour donner plus ou moins de poids à certains mots ou expressions | ||
| **sampler / sampling method** | **sampler / sampling method** | ||
| Ligne 219: | Ligne 242: | ||
| ===== Animation d'image fixe ===== | ===== Animation d'image fixe ===== | ||
| + | ==== AdaMPI ==== | ||
| + | * https://yxuhan.github.io/AdaMPI/ | ||
| + | * https://replicate.com/pollinations/adampi | ||
| + | |||
| + | ==== 3D Photo inpainting ==== | ||
| + | * https://shihmengli.github.io/3D-Photo-Inpainting/ | ||
| + | * https://replicate.com/pollinations/3d-photo-inpainting | ||
| + | |||
| + | ==== Services privés en ligne === | ||
| Plusieurs applications et services en ligne proposent d'animer des images fixes, par exemple : pour animer le visage d'un portrait, d'une photo ancienne, etc. | Plusieurs applications et services en ligne proposent d'animer des images fixes, par exemple : pour animer le visage d'un portrait, d'une photo ancienne, etc. | ||
| Ligne 227: | Ligne 259: | ||
| **leai.pix** https://convert.leiapix.com/ transformation d'images fixes en images 3D [[https://en.wikipedia.org/wiki/Light_field_camera|lightfield]] (utilise [[https://github.com/panrafal/depthy|depthy]] et [[https://github.com/compphoto/BoostingMonocularDepth|BoostingMonocularDepth]]) | **leai.pix** https://convert.leiapix.com/ transformation d'images fixes en images 3D [[https://en.wikipedia.org/wiki/Light_field_camera|lightfield]] (utilise [[https://github.com/panrafal/depthy|depthy]] et [[https://github.com/compphoto/BoostingMonocularDepth|BoostingMonocularDepth]]) | ||
| ===== Augmentation de la définition d'une image ===== | ===== Augmentation de la définition d'une image ===== | ||
| + | |||
| + | ==== Restauration d'images ==== | ||
| + | |||
| + | swinir (usage gratuit sur Replicate) : https://replicate.com/jingyunliang/swinir | ||
| + | |||
| + | D'autres possibilités sur replicate (gratuits ou payants) | ||
| + | * https://replicate.com/collections/super-resolution | ||
| + | * https://replicate.com/collections/image-restoration | ||
| + | | ||
| ==== Real ESRGAN ==== | ==== Real ESRGAN ==== | ||
| Augmentation de la définition d'une image | Augmentation de la définition d'une image | ||
| + | * **https://replicate.com/nightmareai/real-esrgan** | ||
| * https://huggingface.co/spaces/akhaliq/Real-ESRGAN | * https://huggingface.co/spaces/akhaliq/Real-ESRGAN | ||
| Article : https://github.com/xinntao/Real-ESRGAN#Portable-executable-files | Article : https://github.com/xinntao/Real-ESRGAN#Portable-executable-files | ||
| + | |||
| + | ===== Interpolation ===== | ||
| + | |||
| + | ==== FILM ==== | ||
| + | * https://film-net.github.io/ | ||
| + | * https://replicate.com/google-research/frame-interpolation | ||
| + | |||
| + | ==== RIFE ==== | ||
| + | * https://replicate.com/pollinations/rife-video-interpolation | ||
| + | |||
| + | ==== RealBasicVSR ==== | ||
| + | «Real-World Video Super-Resolution» | ||
| + | * https://github.com/ckkelvinchan/RealBasicVSR | ||
| + | * https://arxiv.org/pdf/2111.12704.pdf | ||
| ===== Autres principes ===== | ===== Autres principes ===== | ||
| Ligne 258: | Ligne 313: | ||
| === CLIP (Contrastive Language-Image Pre-Training) === | === CLIP (Contrastive Language-Image Pre-Training) === | ||
| * https://github.com/openai/CLIP | * https://github.com/openai/CLIP | ||
| + | |||
| + | === Mitsua === | ||
| + | «This model is trained from scratch using only public domain/CC0 or copyright images with permission for use, with using a fixed pretrained text encoder (OpenCLIP ViT-H/14, MIT License).» | ||
| + | * https://huggingface.co/Mitsua/mitsua-diffusion-one | ||
| ===== A installer ===== | ===== A installer ===== | ||
| Ligne 277: | Ligne 336: | ||
| **Paragraphica** is a context-to-image camera that uses location data and artificial intelligence to visualize a "photo" of a specific place and moment. The camera exists both as a physical prototype and a virtual camera that you can try. ( https://bjoernkarmann.dk/project/paragraphica ) | **Paragraphica** is a context-to-image camera that uses location data and artificial intelligence to visualize a "photo" of a specific place and moment. The camera exists both as a physical prototype and a virtual camera that you can try. ( https://bjoernkarmann.dk/project/paragraphica ) | ||
| + | |||
| + | **90 miles** controverse sur l'utilisation de l'IA générative pour créer des iamges "documentaires" d'évènements passés : https://www.blind-magazine.com/fr/stories/comment-limagerie-ia-ebranle-le-photojournalisme/ | ||
| ==== Ressources diverses ==== | ==== Ressources diverses ==== | ||