🌸 Tiny-lamina-Gheya 🌸

Gheya

Tiny-lamina-Gheya est un modèle d'intelligence artificielle de 0,2 b de paramètres, Conçu avec L'architecture transformers. Il a été affiné à partir d'un modèle de fondation Gheya, avec un dataset autour de Tiny-lamina. Il descend donc grammaticalement et même génétiquement (s'il avait un corpus) du modèle de fondation Gheya utilisé, Mais il répond et se comporte comme Tiny-lamina.

ce modèle est un hybride Gheya-Lamina. Niveau licence, il est donc soumis à la fois aux GIOS-TERMES de Gheya, et au LRUNDL de lamina. regardez le fichier licence pour connaître les GIOS-TERMES, Et renseignez vous à côté de nos autres modèles pour LA LRUNDL.

✨ Limitations 🍀

Les 2 séries de modèles français (Gheya et Lamina), Ont des points en commun, Sans avoir été conçu avec la même méthode, et les mêmes performances, paramètres et fenêtres de contexte. Le modèle Tiny-lamina-Gheya, est donc le croisement des 2 familles françaises.

Tiny-lamina-Gheya, a hérité du nombre de paramètres du modèle Gheya utilisé, Vue que ce n'est pas le plus petit (0,2b contre 63M pour le plus petit modèle de fondation Gheya), Il est moins cependant moins accessible que les Tiny-lamina natifs (ceux qui sont issus de la série lamina sans interférence sur la série Gheya).

Downloads last month
7
Safetensors
Model size
0.2B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NaA-IA/Tiny-lamina-Gheya

Base model

NaA-IA/Gheya-Nacid
Finetuned
(2)
this model
Quantizations
1 model

Collection including NaA-IA/Tiny-lamina-Gheya