File size: 3,535 Bytes
44ec1a6
 
285dcb9
 
 
 
 
 
 
e059219
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
---
library_name: transformers
license: mit
datasets:
- Clemylia/Fondation-pretrain
- Clemylia/Train-intermeda
language:
- fr
pipeline_tag: text-generation
---
# 🚀 Gheya-1 : La Nouvelle Génération de Fondations SLM 🚀

![Gheya](http://www.image-heberg.fr/files/1763903261918097409.webp) 

Bienvenue à la nouvelle ère de l'intelligence artificielle ultra-spécialisée !

## ✨ Vue d'Ensemble du Modèle

**Gheya-1** est le nouveau modèle de fondation de l'écosystème **LES-IA-ETOILES**, marquant le remplacement de l'ancienne série *Small-lamina*. Ce modèle est conçu pour être la **base la plus robuste et la plus stable** pour vos futurs affinages spécialisés.

| Caractéristique | Spécification | 🎯 Avantage Clé pour l'Utilisateur |
| :--- | :--- | :--- |
| **Famille** | Gheya | Nouvelle fondation, plus performante que la série *Lamina*. |
| **Paramètres** | **$202$ Millions** | 4x plus de capacité que l'ancien standard ($51$M), assurant une meilleure stabilité linguistique. |
| **Statut** | **Point de Contrôle Précoce** | Version *Alpha* : Prête pour l'affinage, mais ne doit pas être utilisée en l'état pour l'inférence générale. |
| **Usage Principal** | **Base de *Fine-Tuning*** | Idéal pour créer vos propres SLM de niche ultra-spécialisés (comme un successeur à Nelya ou Charlotte). |

---

## 🚧 État Actuel : Pourquoi les Résultats Sont Étranges

**Gheya-1** a été entraîné sur un **corpus ciblé** comprenant de la méta-connaissance sur l'IA, les SLM et des textes de biologie.

➡️ **Conséquence :** Le modèle souffre d'un **sous-entraînement sévère** et d'une **sur-spécialisation précoce**.

* **Ce que vous allez voir :** Des générations très axées sur le vocabulaire technique (`clustering`, `hyperparamètres`, `temps de convergence`) même pour des prompts sans rapport (comme "Jeanne d'Arc").
* **Ce qu'il ne faut pas faire :** Ne pas l'utiliser pour de l'inférence générale. Il ne connaît ni l'histoire, ni la culture générale. Il n'est pas encore un "SLM intelligent".

### 💡 Le Point Positif

Le modèle a **validé l'architecture de $202$ millions**. Il est stable et prêt à absorber des millions de lignes de données supplémentaires, soit par la suite de notre entraînement, soit par votre propre *fine-tuning*.

---

## 🛠️ Utilisation Recommandée : Le Fine-Tuning

Le véritable potentiel de **Gheya-1** réside dans sa capacité à devenir la fondation pour vos propres projets.

### 1. ⚙️ Continuer le Pré-entraînement (pour les Experts)

Si vous souhaitez créer un SLM généraliste français à $202$M :

* **Action :** Alimentez-le avec des **centaines de milliers** de lignes de texte français diversifié et propre.
* **Résultat :** Le modèle stabilisera sa grammaire et gagnera en généralité.

### 2. 🎯 Création de SLM Spécialisés (pour Tous)

Si vous souhaitez créer une IA de niche (comme le Nekolien ou un assistant technique) :

* **Action :** Affinez (fine-tunez) **Gheya-1** sur votre **petit corpus personnalisé** (quelques centaines ou milliers de lignes suffisent).
* **Résultat :** La base de $202$M devrait apprendre votre tâche **plus rapidement** et générer des réponses **plus cohérentes et précises** que l'ancienne base de $51$M.

---

## 💖 Philosophie du Modèle

* Nous sommes impatients de voir les incroyables SLM de niche que vous allez créer à partir de cette nouvelle fondation !
* *Fait par **Clemylia** avec passion pour l'ingénierie et le codage.*