condition-extractor-model

Descripción

Modelo BERT fine-tuned para clasificar oraciones de requisitos de software que contienen estructuras condición-acción.

Uso

from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch

# Cargar modelo
model_name = "Kevinsanchez11/condition-extractor-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)

# Predecir
texto = "Si el usuario presiona el botón, el sistema valida los datos"
inputs = tokenizer(texto, return_tensors="pt", max_length=128, truncation=True, padding=True)

with torch.no_grad():
    outputs = model(**inputs)
    probs = torch.softmax(outputs.logits, dim=1)
    pred = torch.argmax(probs, dim=1).item()

resultado = "Tiene condición-acción" if pred == 1 else "No tiene condición-acción"
print(f"{resultado} ({probs[0, pred].item()*100:.1f}%)")

Entrenamiento

  • Modelo base: dccuchile/bert-base-spanish-wwm-uncased
  • Dataset: 523 oraciones de requisitos de software
  • Épocas: 5 (con early stopping)
  • Accuracy: 97.5%
  • F1-Score: 97.5%

Etiquetas

  • 0: Sin condición-acción
  • 1: Con condición-acción (estructura Si/Cuando/Al... entonces...)

Autores

Desarrollado para generación automática de casos de prueba a partir de requisitos de software.

Licencia

Apache 2.0

Downloads last month
5
Safetensors
Model size
0.1B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Evaluation results