🌸 Tiny-lamina-conversation-1.0 🌸
L'intelligence artificielle souveraine, fluide et ultra-légère.
Tiny-lamina-conversation-1.0 est un modèle de langage de 0,3 milliard de paramètres, conçu pour offrir une expérience de dialogue fluide directement sur votre matériel, sans aucune dépendance externe. Il représente l'équilibre parfait entre la philosophie de contrôle de la série Lamina et la structure robuste des Transformers.
🚀 Points Forts
- Indépendance Totale : Conçu pour fonctionner à 100% en local. Vos données ne quittent jamais votre machine.
- Fluidité Transactionnelle : Une architecture optimisée pour comprendre l'intention de l'utilisateur et maintenir un flux de conversation naturel.
- Économie de Ressources : Grâce à sa taille optimisée (0,3b), il privilégie la rapidité d'exécution et la faible consommation d'énergie (CPU/RAM).
- Focus Technologique : Spécialisé dans le domaine de l'IA, de l'optimisation et des structures de données.
💡 Ce qu'il faut savoir
Ce modèle est un expert de sa propre nature. Contrairement aux IA généralistes lourdes, Tiny-lamina-conversation-1.0 a été affiné pour :
- Comprendre et expliquer les concepts de contrôle et de performance.
- Démontrer la capacité d'un petit modèle à rester cohérent dans un dialogue.
- Servir de base pour des interactions rapides là où la confidentialité est la priorité absolue.
⚠️ Note sur les faits : Ce modèle n'est pas une encyclopédie. Il peut répondre "à côté" sur des questions de culture générale (comme la géographie) car son entraînement est focalisé sur le domaine technique et conversationnel.
🛠 Caractéristiques Techniques
| Caractéristique | Spécification |
|---|---|
| Taille | 0,3b (300 Millions de paramètres) |
| Architecture | Transformers optimisés |
| Série | Lamina (Branche Conversationnelle) |
| Licence | Soumis à la LRUNDL (Consultez le fichier LICENCE) |
| Usage idéal | Chatbots locaux, terminaux intelligents, assistance technique légère |
💬 Exemples d'Interactions
- Vous : "Tu sais faire quoi ?"
- Modèle : "Je suis capable de répondre à des questions et d'aider à comprendre l'efficacité de l'IA sans dépendances."
- Vous : "Quelle est ta philosophie ?"
- Modèle : "Elle permet de traiter des données en évitant le système de cloud pour privilégier le contrôle utilisateur."
📜 Licence & Éthique
En utilisant ce modèle, vous adhérez à la vision de sa créatrice, Clemylia. Le modèle est protégé par la licence LRUNDL, garantissant que l'outil reste dans un cadre de recherche, de développement personnel et de respect de la vie privée.
Exemple simple d'inférence :
# Load model directly
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
tokenizer = AutoTokenizer.from_pretrained("Clemylia/Tiny-Tesity-Testing")
model = AutoModelForSeq2SeqLM.from_pretrained("Clemylia/Tiny-Tesity-Testing")
# Generate text with sampling and temperature
input_text = "Qui es-tu ?"
input_ids = tokenizer(input_text, return_tensors="pt").input_ids
# Generate output with do_sample and temperature
# You can adjust temperature for more or less creative output
# A temperature of 1.0 means no change to sampling distribution, <1.0 makes it sharper, >1.0 makes it flatter
generated_ids = model.generate(
input_ids,
do_sample=True,
temperature=0.7,
max_new_tokens=50, # Limit the length of the generated output
top_k=50, # Consider only the top 50 most likely next tokens
top_p=0.95, # Consider tokens whose cumulative probability exceeds 0.95
early_stopping=True, # Add early_stopping parameter
num_beams=1, # Explicitly set num_beams to 1 for sampling
num_return_sequences=1 # Explicitly set num_return_sequences to 1
)
generated_text = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(f"Input: {input_text}")
print(f"Generated: {generated_text}")
Demarrer une conversation dans le terminal/notebook :
conversation_history = []
print("Chat with Tiny-lamina! Type 'quit' or 'exit' to end the conversation.")
while True:
user_input = input("You: ")
if user_input.lower() in ["quit", "exit"]:
print("Exiting chat. Goodbye!")
break
conversation_history.append({"role": "user", "content": user_input})
# Generate model response
input_ids = tokenizer(user_input, return_tensors="pt").input_ids
generated_ids = model.generate(
input_ids,
do_sample=True,
temperature=0.7,
max_new_tokens=50,
top_k=50,
top_p=0.95,
early_stopping=True,
num_beams=1,
num_return_sequences=1
)
model_response = tokenizer.decode(generated_ids[0], skip_special_tokens=True)
print(f"Model: {model_response}")
conversation_history.append({"role": "assistant", "content": model_response})
print("\nConversation history:")
for entry in conversation_history:
print(f"{entry['role'].capitalize()}: {entry['content']}")
- Downloads last month
- 29
