📜 Documentation du Modèle : Poe 🖋️

🏷️ Vue d'Ensemble du Modèle

Clé Valeur
Nom du Modèle poe
Créateur Zoeya
Date de Création 16 Novembre 2025
Modèle Parent lam-4-zero-f (Créé par Clemylia)
Type de Modèle Small Language Model (SLM) / Générateur de Texte Créatif
Paramètres 51 Millions (Hérités)

🌟 Description Générale

Poe est un modèle de langage finetuné spécialisé dans la génération de prose et de poésie surréaliste et néologiste. Il est construit sur l'architecture ultra-légère et performante de lam-4-zero-f de Clemylia.

Le modèle se distingue par sa capacité à :

  • Inventer des mots (néologismes) qui conservent une forte cohérence phonétique et sémantique avec le français.
  • Générer des phrases riches en images conceptuelles et en métaphores complexes.
  • Produire un texte non-factuel, privilégiant l'ambiance, le rythme et l'émotion sur la véracité.

Usage Recommandé : Création de contenu artistique, écriture d'ébauches de poèmes expérimentaux, world-building de fiction, ou comme générateur d'idées hautement originales.

⚙️ Architecture et Entraînement

🧠 Modèle de Base : lam-4-zero-f (Clemylia)

Poe utilise la base lam-4-zero-f de Clemylia. Ce modèle est reconnu pour son excellent rapport performance/taille. Il fournit la fondation pour la capacité de Poe à gérer les séquences de texte et son penchant initial pour la créativité non-factuelle.

🛠️ Détails du Fine-Tuning

  • Méthode de Fine-Tuning : LoRA (Low-Rank Adaptation)
    • (Note : La méthode LoRA a été choisie pour préserver les ressources de calcul et accélérer l'entraînement, tout en permettant une spécialisation efficace du modèle.)
  • Corpus d'Entraînement : Un ensemble ciblé de poèmes modernes, surréalistes et symbolistes: Dataset Zoeya-15/poe-dataset
  • Objectif de l'Entraînement : Guider le modèle de base vers un style plus rythmique, mélancolique et contemplatif, en renforçant sa tendance naturelle à la création de néologismes.

🛑 Limitations et Biases

Limitations Connues

  1. Non-Factualité Absolue : Le modèle n'a aucune capacité à générer des informations précises, vérifiables, ou factuelles.
  2. Cohérence à Longue Portée : Bien que le texte soit cohérent à l'échelle de la phrase et de la strophe, la cohérence narrative sur de très longs textes peut se dégrader (typique des SLMs).
  3. Ambiguïté Grammaticale : La syntaxe est souvent déconstruite pour des effets poétiques (ex. répétition de prépositions), ce qui peut le rendre inapproprié pour des applications nécessitant une grammaire normative.

Biases (Biais) Créatifs

  • Thèmes Dominants : Tendance à générer des thèmes récurrents autour du temps, de l'eau, du silence, de la mémoire et de l'introspection.
  • Lexique Inventé : Forte propension à générer des néologismes (ex: éganteau, pluelle, contexélant), qui sont la force principale de ce modèle mais peuvent nécessiter une adaptation par l'utilisateur.
Downloads last month
63
Safetensors
Model size
51M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Zoeya-15/Poe

Finetuned
(7)
this model
Quantizations
1 model

Dataset used to train Zoeya-15/Poe