🌸 Lam-3 / SLM Lamina 🌸

LAMINA

Bienvenue sur la documentation officielle de Lam-3 !

Lam-3 est un SLM de la série lamina, fine-tuné a partir du blank : Clemylia/lamina-suite-pretrain. l'entraînement de Lam-3 a durer 3 heures sur GPU T4, et il fait 0,7 milliards (714 millions) de paramètres.

Ce SLM a été entrainer sur la dataset Clem27sey/Nacid, contenant 1358 questions/réponses a ce moment.

Lam-3 a été cree from scratch (de zero) par Clemylia, a partir de sa propre base.

♥️ Informations et Usage ♥️

Lam-3 est programmée pour répondre a des questions (identitaires, et de base) et fournir ses propres réponses, parfois absurde, mais originale, il ne copie colle pas ses données d'entraînement a la lettre, il est créatif.

Si Lam-3 génère du charabia illisible du type : J e s R L M O N A R C H I E E R J ' {¥{`{ }}}, c'est normal. cela lui arrive parfois, même si ses phrases sont lisibles la plupart du temps, et cela viens sûrement de votre propre paramètrage et code d'inférence.

Lam-3 a été cree avec l'architecture transformers. même si il est créé from scratch (a partir de zero).

Non responsabilité :

nous ne sommes pas responsables des absurdité potentielles (le fromage feta et réduit le château de Versailles) ou encore (La Galaxie est la monnaie de la Pologne),

ou du moins, nous ne sommes pas responsables des conséquences, si quelq'un est assez bête pour croire le modèle.

🦋 Bonne utilisation!

🛑 : Lam, sur toutes ses iterations et modèles (Lam-1, Lam-2, Lam-3 , et supérieur etc...), sont des créations de Clemylia, et du studio LES-IA-ETOILES. De ce fait, ce SlM est la propriété de l'organisation qui le crée et le maintient.

exemple de code d'utilisation :

# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM

tokenizer = AutoTokenizer.from_pretrained("Clemylia/Lam-3")
model = AutoModelForCausalLM.from_pretrained("Clemylia/Lam-3")
messages = [
    {"role": "user", "content": "Qui es-tu ?"},
]
inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    tokenize=True,
    return_dict=True,
    return_tensors="pt",
).to(model.device)

outputs = model.generate(**inputs, max_new_tokens=150, do_sample=True, temperature=0.7, repetition_penalty=1.2)
print(tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:]))
print('fin')

🎉 Lam-3 est créatif : Lam-3 peut inventer des mots et des synthaxes comme tenaire, c'est totalement normal, et est même une fonctionnalité. En tant que SLM il n'est pas conçu pour etre chatgpt.

Les SLM Lam (et par extension tout les modèles lamina), appartiennent a Clemylia et a l'organisation LES-IA-ETOILES.

Information : Le droit d'utiliser lam-3 comme base, pour la création de d'autres modèles est autorisé, sous demande.

Lam-3 est un modèle brute de fondation

Downloads last month
139
Safetensors
Model size
0.7B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train Clem27AI/Lam-3