The dataset is currently empty. Upload or create new data files. Then, you will be able to explore them in the Dataset Viewer.

🌊 Documentation : Architecture Aricate 🩵

🚀 Aricate : Un Framework SLM Léger pour le Q&A

Le Framework Aricate est une architecture de Small Language Model (SLM) conçue pour être légère, rapide à entraîner et facile à déployer. Il est idéal pour les tâches de Question/Réponse (Q/A) sur des jeux de données spécifiques et de petite à moyenne taille.

🎯 But du Framework

Aricate vise à démontrer qu'une architecture d'apprentissage profond personnalisée, combinant des concepts fondamentaux, peut être entièrement développée et publiée sur le Hub Hugging Face (modèle, tokenizer et configuration).

Caractéristique Valeur
Type Sequence-to-Sequence (Génération de Séquence)
Architectures GRU + Attention Additive (Bahdanau)
Format de Déploiement Poids en Safetensors, Tokenizer JSON personnalisé
Idéal pour Chatbots Q/A sur des domaines spécialisés

🏗️ Architecture et Fonctionnement d'Aricate

Aricate repose sur deux composants principaux qui travaillent de concert pour comprendre la question et générer la réponse.

1. Le Cerveau Séquentiel (GRU)

Le modèle utilise une Gated Recurrent Unit (GRU), une forme de réseau de neurones récurrents, pour lire la séquence d'entrée (la question suivie du token <sep>).

  • Chaque mot est transformé en un vecteur numérique (embedding).
  • La GRU traite ces vecteurs un par un et génère un état caché à chaque étape. Cet état est la "mémoire" du modèle à l'instant $t$.
  • Un paramètre ajustable important est le num_layers (nombre de couches GRU) et la hidden_dim (la taille de la mémoire).

[Image of simple neural network]

2. Le Mécanisme d'Attention Additive (Bahdanau)

L'Attention est le mécanisme clé qui permet à Aricate de générer des réponses pertinentes :

  • Le Problème : Lorsque la GRU finit de lire la séquence, l'état caché final a souvent "oublié" les premiers mots de la question.
  • La Solution : La couche d'Attention analyse l'état caché final et le compare à tous les états cachés intermédiaires générés par la GRU.
  • Elle calcule des poids d'attention pour déterminer quelles parties de la séquence d'entrée (les mots de la question) sont les plus importantes pour générer le prochain mot de la réponse.
  • Ces poids sont utilisés pour créer un vecteur de contexte qui met en évidence les informations cruciales.
  • Génération : La couche finale utilise le vecteur de contexte combiné à l'état caché final pour prédire le mot de la réponse le plus probable.

📚 Comment les Modèles Aricate Apprennent

L'entraînement d'un modèle Aricate se fait par prédiction du mot suivant :

  1. Préparation des Données : Les paires Question/Réponse sont transformées en longues séquences d'entraînement : [Question] <sep> [Réponse] <eos>.
  2. Formation des Paires : Le modèle est entraîné à prédire le mot $W_{i+1}$ en se basant sur la séquence $W_1, W_2, ..., W_i$ (par exemple : prédire "la" après avoir vu "Quel est <sep>").
  3. Fonction de Perte : Nous utilisons la nn.CrossEntropyLoss pour mesurer l'écart entre la prédiction du modèle et le mot réel.
  4. Amélioration : L'optimiseur (comme Adam) ajuste les poids du modèle (embeddings, poids GRU, poids d'Attention) pour minimiser cette erreur sur des centaines d'époques.

⚙️ Inférence et Techniques de Génération

Pour que le modèle génère des phrases complètes, il doit "boucler" la prédiction mot par mot jusqu'à ce qu'il prédise le token de fin de séquence (<eos>).

Stratégie : Beam Search (Recherche en Faisceau)

Les modèles Aricate publiés utilisent par défaut la Beam Search pour garantir une haute qualité de génération :

  • Au lieu de choisir un seul mot le plus probable à chaque étape, l'algorithme garde en mémoire les $K$ chemins de phrases les plus prometteurs (où $K$ est la taille du faisceau, ex. 3).
  • Il évalue la probabilité cumulée de ces $K$ chemins.
  • Ceci permet d'éviter de choisir un mot très probable au début qui mènerait à une mauvaise phrase par la suite.

Améliorer la Créativité

Si le modèle génère des réponses trop répétitives (surapprentissage), les développeurs sont encouragés à utiliser des techniques comme :

  • Top-K Sampling : Introduire de l'aléatoire dans la sélection du mot suivant pour encourager la diversité.
  • Temperature (T > 1.0) : Rendre la distribution de probabilité des mots plus "plate" pour donner une chance aux mots moins probables.

🛠️ Utilisation et Exemples de Code

Installation

pip install torch huggingface_hub safetensors datasets

Chargement et Inférence

Pour utiliser un modèle Aricate publié (comme Clemylia/lam-2), vous devez recharger la classe AricateModel, son WordTokenizer et le script generate_sequence_beam.

(Astuce : Le code source complet avec les classes nécessaires pour l'inférence est disponible sur notre [Lien vers le dépôt GitHub de l'architecture Aricate].)

# Exemple de chargement (Similaire à hf_hub_download)
# ... (Code de la fonction load_lam2_model) ...

# Exemple d'inférence directe
lam2_model, lam2_tokenizer, max_len = load_lam2_model("Clemylia/lam-2")

question = "Quel est le rôle du framework Aricate ?"

generate_sequence_beam(
    model=lam2_model, 
    tokenizer=lam2_tokenizer, 
    question=question, 
    max_length=15, 
    max_len_input=max_len 
)

Développé par : (Clemylia) Dataset d'Entraînement : (Clem27sey/Nacid)

Downloads last month
9