Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
ressource:code:images_et_ia:start [2023/05/26 09:58] emoc [Recherche] |
ressource:code:images_et_ia:start [2024/01/31 16:33] emoc [Stable Diffusion] |
||
---|---|---|---|
Ligne 44: | Ligne 44: | ||
* https://rom1504.github.io/clip-retrieval/ | * https://rom1504.github.io/clip-retrieval/ | ||
* Vos images personnelles ont-elles étés aspirés dans le dataset LAION-5B ? [[https://haveibeentrained.com/]]. | * Vos images personnelles ont-elles étés aspirés dans le dataset LAION-5B ? [[https://haveibeentrained.com/]]. | ||
+ | * LAION5B explained : https://www.ivanzhou.me/blog/2022/12/4/paper-explained-laion-5b | ||
=== aide à l'écriture de prompt === | === aide à l'écriture de prompt === | ||
Ligne 50: | Ligne 51: | ||
* Utiliser chatGPT pour écrire des prompts : https://www.reddit.com/r/StableDiffusion/comments/11ezpcg/chat_gpt_stable_diffusion_promt_generator/ | * Utiliser chatGPT pour écrire des prompts : https://www.reddit.com/r/StableDiffusion/comments/11ezpcg/chat_gpt_stable_diffusion_promt_generator/ | ||
+ | === temps réel avec Streamdiffusion === | ||
+ | |||
+ | * https://github.com/cumulo-autumn/StreamDiffusion | ||
+ | * https://alltd.org/real-time-diffusion-in-touchdesigner-streamdiffusiontd-setup-install-settings/ intégration dans touchdesigner | ||
=== divers === | === divers === | ||
* https://www.reddit.com/r/StableDiffusion/ | * https://www.reddit.com/r/StableDiffusion/ | ||
Ligne 71: | Ligne 76: | ||
**deforum** : création d'animations à partir de prompts et d'indications sur l'animation (rotation, zoom, etc.) | **deforum** : création d'animations à partir de prompts et d'indications sur l'animation (rotation, zoom, etc.) | ||
* https://deforum.github.io | * https://deforum.github.io | ||
+ | * https://github.com/deforum-art/deforum-stable-diffusion | ||
* https://docs.google.com/document/d/1RrQv7FntzOuLg4ohjRZPVL7iptIyBhwwbcEYEW2OfcI/edit | * https://docs.google.com/document/d/1RrQv7FntzOuLg4ohjRZPVL7iptIyBhwwbcEYEW2OfcI/edit | ||
+ | * https://github.com/deforum-art/sd-webui-deforum/wiki | ||
+ | * https://aituts.com/deforum/ bonne intro | ||
+ | * https://stable-diffusion-art.com/deforum/ autre intro | ||
+ | * **https://rentry.org/AnimAnon-Deforum** tous les paramètres expliqués | ||
+ | * https://docs.google.com/document/d/1pEobUknMFMkn8F5TMsv8qRzamXX_75BShMMXV8IFslI/edit guide pour Deforumv05 (pdf possible) | ||
+ | * **https://rentry.org/AnimAnon excellent guide général sur l'animation** | ||
+ | * https://replicate.com/deforum/deforum_stable_diffusion/examples | ||
+ | |||
+ | **deforum/parseq** : parseq est un séquenceur de paramètres pour deforum | ||
+ | * https://rentry.org/AnimAnon-Parseq | ||
+ | * https://github.com/rewbs/sd-parseq | ||
+ | * un exemple : https://www.youtube.com/shorts/fgiev3A93RU | ||
+ | |||
+ | **diffusion** : procédé de création des images qui part d'une image bruitée pour la débruiter en la faisant correspondre au prompt | ||
**dreambooth** : méthode pour compléter l'entrainement d'un modèle à partir de photos personnelles | **dreambooth** : méthode pour compléter l'entrainement d'un modèle à partir de photos personnelles | ||
Ligne 90: | Ligne 110: | ||
**invokeAI** : logiciel web pour générer des iamges (inpainting, outpainting, etc.) | **invokeAI** : logiciel web pour générer des iamges (inpainting, outpainting, etc.) | ||
+ | * https://github.com/invoke-ai/InvokeAI/blob/main/docs/features/UNIFIED_CANVAS.md | ||
**Latent Couple** : composition controlée, segmentation, plusieurs prompts | **Latent Couple** : composition controlée, segmentation, plusieurs prompts | ||
Ligne 112: | Ligne 133: | ||
**paint-with-words** : segmentation d'iamges, multiples prompts | **paint-with-words** : segmentation d'iamges, multiples prompts | ||
* https://github.com/cloneofsimo/paint-with-words-sd | * https://github.com/cloneofsimo/paint-with-words-sd | ||
+ | |||
+ | **prompt** : énoncé texte fourni pour produire l'image, selon les logiciels cet énoncé peut être renforcé par des signes de ponctuation (parenthèses, crochets, etc.) pour donner plus ou moins de poids à certains mots ou expressions | ||
**sampler / sampling method** | **sampler / sampling method** | ||
Ligne 128: | Ligne 151: | ||
**txt2img** : text to image = générer une iamge depuis un prompt | **txt2img** : text to image = générer une iamge depuis un prompt | ||
+ | **upscale** | ||
+ | * https://github.com/AUTOMATIC1111/stable-diffusion-webui/discussions/6509?ref=learn.rundiffusion.com | ||
Ligne 217: | Ligne 242: | ||
===== Animation d'image fixe ===== | ===== Animation d'image fixe ===== | ||
+ | ==== AdaMPI ==== | ||
+ | * https://yxuhan.github.io/AdaMPI/ | ||
+ | * https://replicate.com/pollinations/adampi | ||
+ | |||
+ | ==== 3D Photo inpainting ==== | ||
+ | * https://shihmengli.github.io/3D-Photo-Inpainting/ | ||
+ | * https://replicate.com/pollinations/3d-photo-inpainting | ||
+ | |||
+ | ==== Services privés en ligne === | ||
Plusieurs applications et services en ligne proposent d'animer des images fixes, par exemple : pour animer le visage d'un portrait, d'une photo ancienne, etc. | Plusieurs applications et services en ligne proposent d'animer des images fixes, par exemple : pour animer le visage d'un portrait, d'une photo ancienne, etc. | ||
Ligne 225: | Ligne 259: | ||
**leai.pix** https://convert.leiapix.com/ transformation d'images fixes en images 3D [[https://en.wikipedia.org/wiki/Light_field_camera|lightfield]] (utilise [[https://github.com/panrafal/depthy|depthy]] et [[https://github.com/compphoto/BoostingMonocularDepth|BoostingMonocularDepth]]) | **leai.pix** https://convert.leiapix.com/ transformation d'images fixes en images 3D [[https://en.wikipedia.org/wiki/Light_field_camera|lightfield]] (utilise [[https://github.com/panrafal/depthy|depthy]] et [[https://github.com/compphoto/BoostingMonocularDepth|BoostingMonocularDepth]]) | ||
===== Augmentation de la définition d'une image ===== | ===== Augmentation de la définition d'une image ===== | ||
+ | |||
+ | ==== Restauration d'images ==== | ||
+ | |||
+ | swinir (usage gratuit sur Replicate) : https://replicate.com/jingyunliang/swinir | ||
+ | |||
+ | D'autres possibilités sur replicate (gratuits ou payants) | ||
+ | * https://replicate.com/collections/super-resolution | ||
+ | * https://replicate.com/collections/image-restoration | ||
+ | | ||
==== Real ESRGAN ==== | ==== Real ESRGAN ==== | ||
Augmentation de la définition d'une image | Augmentation de la définition d'une image | ||
+ | * **https://replicate.com/nightmareai/real-esrgan** | ||
* https://huggingface.co/spaces/akhaliq/Real-ESRGAN | * https://huggingface.co/spaces/akhaliq/Real-ESRGAN | ||
Article : https://github.com/xinntao/Real-ESRGAN#Portable-executable-files | Article : https://github.com/xinntao/Real-ESRGAN#Portable-executable-files | ||
+ | |||
+ | ===== Interpolation ===== | ||
+ | |||
+ | ==== FILM ==== | ||
+ | * https://film-net.github.io/ | ||
+ | * https://replicate.com/google-research/frame-interpolation | ||
+ | |||
+ | ==== RIFE ==== | ||
+ | * https://replicate.com/pollinations/rife-video-interpolation | ||
+ | |||
+ | ==== RealBasicVSR ==== | ||
+ | «Real-World Video Super-Resolution» | ||
+ | * https://github.com/ckkelvinchan/RealBasicVSR | ||
+ | * https://arxiv.org/pdf/2111.12704.pdf | ||
===== Autres principes ===== | ===== Autres principes ===== | ||
Ligne 256: | Ligne 313: | ||
=== CLIP (Contrastive Language-Image Pre-Training) === | === CLIP (Contrastive Language-Image Pre-Training) === | ||
* https://github.com/openai/CLIP | * https://github.com/openai/CLIP | ||
+ | |||
+ | === Mitsua === | ||
+ | «This model is trained from scratch using only public domain/CC0 or copyright images with permission for use, with using a fixed pretrained text encoder (OpenCLIP ViT-H/14, MIT License).» | ||
+ | * https://huggingface.co/Mitsua/mitsua-diffusion-one | ||
===== A installer ===== | ===== A installer ===== | ||
Ligne 271: | Ligne 332: | ||
* tuto : https://gigazine.net/gsc_news/en/20220912-automatic1111-stable-diffusion-webui-prompt-interrogate/ | * tuto : https://gigazine.net/gsc_news/en/20220912-automatic1111-stable-diffusion-webui-prompt-interrogate/ | ||
* exemples : https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase | * exemples : https://github.com/AUTOMATIC1111/stable-diffusion-webui-feature-showcase | ||
+ | |||
+ | ==== Art numérique et IA génératives ==== | ||
+ | |||
+ | **Paragraphica** is a context-to-image camera that uses location data and artificial intelligence to visualize a "photo" of a specific place and moment. The camera exists both as a physical prototype and a virtual camera that you can try. ( https://bjoernkarmann.dk/project/paragraphica ) | ||
+ | |||
+ | **90 miles** controverse sur l'utilisation de l'IA générative pour créer des iamges "documentaires" d'évènements passés : https://www.blind-magazine.com/fr/stories/comment-limagerie-ia-ebranle-le-photojournalisme/ | ||
==== Ressources diverses ==== | ==== Ressources diverses ==== |