GPT-OSS-20B Fine-tuned para Español y Multiidioma

Este es un modelo GPT-OSS-20B (21B parámetros) fine-tuneado usando LoRA para mejorar la generación de texto en español y otros idiomas.

📊 Información del Modelo

  • Modelo base: openai/gpt-oss-20b
  • Método de fine-tuning: LoRA (Low-Rank Adaptation)
  • Idiomas: Español (principal), Inglés, Francés, Alemán, Italiano
  • Pasos de entrenamiento: 50
  • Reducción de pérdida: 81%
  • Tamaño: ~21B parámetros

🚀 Uso del Modelo

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
import torch

# Cargar modelo base
base_model = "openai/gpt-oss-20b"
model = AutoModelForCausalLM.from_pretrained(
    base_model,
    torch_dtype=torch.bfloat16,
    device_map="auto"
)

# Cargar tokenizer
tokenizer = AutoTokenizer.from_pretrained(base_model)
if tokenizer.pad_token is None:
    tokenizer.pad_token = tokenizer.eos_token

# Cargar adaptador LoRA
model = PeftModel.from_pretrained(model, "LordDenihol/gpt-oss-20b-multiidioma-lora")

# Generar texto
prompt = "Explica qué es la inteligencia artificial:"
inputs = tokenizer(prompt, return_tensors="pt")

with torch.no_grad():
    outputs = model.generate(
        **inputs,
        max_new_tokens=200,
        temperature=0.7,
        do_sample=True,
        pad_token_id=tokenizer.eos_token_id
    )

response = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(response)

🎯 Casos de Uso

  • Generación de texto en español de alta calidad
  • Asistente conversacional multiidioma
  • Creación de contenido educativo
  • Traducción y adaptación de textos
  • Razonamiento y explicaciones técnicas

📈 Rendimiento

El modelo muestra excelente rendimiento en:

  • ✅ Fluidez y naturalidad en español
  • ✅ Comprensión de contexto
  • ✅ Respuestas coherentes y relevantes
  • ✅ Capacidad multiidioma
  • ✅ Razonamiento lógico

⚙️ Configuración Recomendada

generation_config = {
    "max_new_tokens": 200,
    "temperature": 0.7,
    "top_p": 0.9,
    "do_sample": True,
    "repetition_penalty": 1.1
}

📄 Licencia

Este modelo se distribuye bajo la licencia Apache 2.0.

🙏 Agradecimientos

Basado en el modelo GPT-OSS-20B de OpenAI y fine-tuneado usando técnicas de LoRA.

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for LordDenihol/gpt-oss-20b-multiidioma-lora

Base model

openai/gpt-oss-20b
Adapter
(105)
this model