🌸 Tiny-lamina-conversation-1.0 🌸

Tiny-lamina

L'intelligence artificielle souveraine, fluide et ultra-légère.

Tiny-lamina-conversation-1.0 est un modèle de langage de 0,3 milliard de paramètres, conçu pour offrir une expérience de dialogue fluide directement sur votre matériel, sans aucune dépendance externe. Il représente l'équilibre parfait entre la philosophie de contrôle de la série Lamina et la structure robuste des Transformers.


🚀 Points Forts

  • Indépendance Totale : Conçu pour fonctionner à 100% en local. Vos données ne quittent jamais votre machine.
  • Fluidité Transactionnelle : Une architecture optimisée pour comprendre l'intention de l'utilisateur et maintenir un flux de conversation naturel.
  • Économie de Ressources : Grâce à sa taille optimisée (0,3b), il privilégie la rapidité d'exécution et la faible consommation d'énergie (CPU/RAM).
  • Focus Technologique : Spécialisé dans le domaine de l'IA, de l'optimisation et des structures de données.

💡 Ce qu'il faut savoir

Ce modèle est un expert de sa propre nature. Contrairement aux IA généralistes lourdes, Tiny-lamina-conversation-1.0 a été affiné pour :

  1. Comprendre et expliquer les concepts de contrôle et de performance.
  2. Démontrer la capacité d'un petit modèle à rester cohérent dans un dialogue.
  3. Servir de base pour des interactions rapides là où la confidentialité est la priorité absolue.

⚠️ Note sur les faits : Ce modèle n'est pas une encyclopédie. Il peut répondre "à côté" sur des questions de culture générale (comme la géographie) car son entraînement est focalisé sur le domaine technique et conversationnel.


🛠 Caractéristiques Techniques

Caractéristique Spécification
Taille 0,3b (300 Millions de paramètres)
Architecture Transformers optimisés
Série Lamina (Branche Conversationnelle)
Licence Soumis à la LRUNDL (Consultez le fichier LICENCE)
Usage idéal Chatbots locaux, terminaux intelligents, assistance technique légère

💬 Exemples d'Interactions

  • Vous : "Tu sais faire quoi ?"
  • Modèle : "Je suis capable de répondre à des questions et d'aider à comprendre l'efficacité de l'IA sans dépendances."
  • Vous : "Quelle est ta philosophie ?"
  • Modèle : "Elle permet de traiter des données en évitant le système de cloud pour privilégier le contrôle utilisateur."

📜 Licence & Éthique

En utilisant ce modèle, vous adhérez à la vision de sa créatrice, Clemylia. Le modèle est protégé par la licence LRUNDL, garantissant que l'outil reste dans un cadre de recherche, de développement personnel et de respect de la vie privée.

Exemple simple d'inférence :

# Load model directly
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM

tokenizer = AutoTokenizer.from_pretrained("Clemylia/Tiny-Tesity-Testing")
model = AutoModelForSeq2SeqLM.from_pretrained("Clemylia/Tiny-Tesity-Testing")

# Generate text with sampling and temperature
input_text = "Qui es-tu ?"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids

# Generate output with do_sample and temperature
# You can adjust temperature for more or less creative output
# A temperature of 1.0 means no change to sampling distribution, <1.0 makes it sharper, >1.0 makes it flatter
generated_ids = model.generate(
    input_ids,
    do_sample=True,
    temperature=0.7,
    max_new_tokens=50, # Limit the length of the generated output
    top_k=50, # Consider only the top 50 most likely next tokens
    top_p=0.95, # Consider tokens whose cumulative probability exceeds 0.95
    early_stopping=True, # Add early_stopping parameter
    num_beams=1, # Explicitly set num_beams to 1 for sampling
    num_return_sequences=1 # Explicitly set num_return_sequences to 1
)

generated_text = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(f"Input: {input_text}")
print(f"Generated: {generated_text}")

Demarrer une conversation dans le terminal/notebook :

conversation_history = []

print("Chat with Tiny-lamina! Type 'quit' or 'exit' to end the conversation.")

while True:
    user_input = input("You: ")

    if user_input.lower() in ["quit", "exit"]:
        print("Exiting chat. Goodbye!")
        break

    conversation_history.append({"role": "user", "content": user_input})

    # Generate model response
    input_ids = tokenizer(user_input, return_tensors="pt").input_ids
    generated_ids = model.generate(
        input_ids,
        do_sample=True,
        temperature=0.7,
        max_new_tokens=50,
        top_k=50,
        top_p=0.95,
        early_stopping=True,
        num_beams=1,
        num_return_sequences=1
    )
    model_response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)

    print(f"Model: {model_response}")
    conversation_history.append({"role": "assistant", "content": model_response})

print("\nConversation history:")
for entry in conversation_history:
    print(f"{entry['role'].capitalize()}: {entry['content']}")
Downloads last month
29
Safetensors
Model size
0.3B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Dataset used to train NaA-IA/Tiny-lamina-conversation-1.0

Collections including NaA-IA/Tiny-lamina-conversation-1.0