--- license: mit language: - fr pipeline_tag: image-to-image datasets: - Clemylia/Mandalas --- # 🎨 Dranina - Votre Coloriage Automatique de Mandalas \! ![Dranina](http://www.image-heberg.fr/files/17587941743733450063.jpg) ## 🌟 Aperçu du Modèle Bienvenue dans l'univers de **Dranina**, un modèle de *machine learning* conçu pour transformer instantanément vos dessins de mandalas en noir et blanc en œuvres entièrement colorées \! 🚀 Dranina est un réseau neuronal de type **U-Net**, entraîné sur une collection de paires d'images (mandala non colorié ➡️ mandala colorié) pour apprendre l'art de la colorisation. | Détail | Description | | :--- | :--- | | **Tâche Principale** | Colorisation Image-to-Image (Noir et Blanc ➡️ Couleur) | | **Architecture** | U-Net (PyTorch) | | **Entraîné sur** | Dataset privée (Mandalas variés) | | **Idéal pour** | Les artistes numériques et les développeurs souhaitant intégrer la colorisation automatique. | ----- ## 💻 Comment Utiliser Dranina (Inférence) Vous pouvez intégrer le modèle Dranina dans vos propres applications ou l'utiliser directement dans un environnement Python (comme Google Colab). ### 1\. Prérequis Assurez-vous d'avoir les bibliothèques essentielles pour le chargement du modèle PyTorch et l'accès au Hub Hugging Face : ```bash pip install torch torchvision pillow huggingface_hub ``` ### 2\. Chargement du Modèle Le modèle est stocké sur le Hub sous forme d'un fichier de poids binaire. Vous devez définir la structure U-Net puis charger les poids. ```python import torch from torchvision import transforms from PIL import Image from huggingface_hub import hf_hub_download # (Nécessite la définition des classes double_conv, Up, et DraninaUnet) # --- Paramètres --- MODEL_ID = "Clemylia/Dranina-Mandala-Colorizer" MODEL_FILENAME = "pytorch_model.bin" def charger_et_predire(input_image_path): # 1. Téléchargement des poids model_path = hf_hub_download(repo_id=MODEL_ID, filename=MODEL_FILENAME) # 2. Instanciation de l'architecture et chargement des poids # NOTE: Assurez-vous d'avoir défini les classes DraninaUnet, Up, etc. model = DraninaUnet(n_channels=3, n_classes=3) state_dict = torch.load(model_path, map_location=torch.device("cpu")) model.load_state_dict(state_dict) model.eval() # Mode évaluation # 3. Prédiction (Utilisez vos propres fonctions de prédiction ici) # ... (Code de prédiction qui transforme l'image et utilise model(input_tensor)) # Retourne l'image coloriée return image_coloree ``` 👉 Pour une démonstration interactive, visitez notre [Hugging Face Space](https://www.google.com/search?q=https://huggingface.co/spaces/Clemylia/Dranina-Mandala-App) \! ----- ## 🚧 Limitations et Points Importants Afin d'obtenir les meilleurs résultats, veuillez tenir compte de ces points : ### 1\. Palette de Couleurs Moyenne 🌈 Dranina a été entraîné en utilisant la **L1 Loss** (Erreur Absolue Moyenne). Ce type de fonction de perte a tendance à favoriser des choix de couleurs **"sûres"** ou **moyennes** pour minimiser les erreurs. * **Observation :** Si les mandalas produits vous semblent manquer de saturation ou si la palette de couleurs est répétitive, cela est dû à la nature de la fonction de perte. Le modèle évite les couleurs trop vives ou trop sombres si elles ne sont pas dominantes dans la *dataset* d'entraînement. ### 2\. Résolution d'Entrée Le modèle est optimisé pour des images carrées et redimensionne l'entrée à **$256 \\times 256$ pixels** avant l'inférence. Pour une qualité optimale, essayez de fournir des images d'entrée claires, sans bruit, et proches de ce format. ----- ## 🤝 Contribution et Retour Votre avis est précieux \! Si vous utilisez Dranina, n'hésitez pas à : 1. **Signaler les problèmes (Issues)** si vous rencontrez des erreurs techniques. 2. **Partager vos résultats** et vos retours sur la qualité de la colorisation. 3. **Contribuer** en proposant des améliorations ou en partageant une version améliorée du modèle (par exemple, avec une Perte Perceptuelle) \! Bonne colorisation \! ✨