condition-extractor-model
Descripción
Modelo BERT fine-tuned para clasificar oraciones de requisitos de software que contienen estructuras condición-acción.
Uso
from transformers import AutoTokenizer, AutoModelForSequenceClassification
import torch
# Cargar modelo
model_name = "Kevinsanchez11/condition-extractor-model"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForSequenceClassification.from_pretrained(model_name)
# Predecir
texto = "Si el usuario presiona el botón, el sistema valida los datos"
inputs = tokenizer(texto, return_tensors="pt", max_length=128, truncation=True, padding=True)
with torch.no_grad():
outputs = model(**inputs)
probs = torch.softmax(outputs.logits, dim=1)
pred = torch.argmax(probs, dim=1).item()
resultado = "Tiene condición-acción" if pred == 1 else "No tiene condición-acción"
print(f"{resultado} ({probs[0, pred].item()*100:.1f}%)")
Entrenamiento
- Modelo base: dccuchile/bert-base-spanish-wwm-uncased
- Dataset: 523 oraciones de requisitos de software
- Épocas: 5 (con early stopping)
- Accuracy: 97.5%
- F1-Score: 97.5%
Etiquetas
- 0: Sin condición-acción
- 1: Con condición-acción (estructura Si/Cuando/Al... entonces...)
Autores
Desarrollado para generación automática de casos de prueba a partir de requisitos de software.
Licencia
Apache 2.0
- Downloads last month
- 5
Evaluation results
- Accuracyself-reported0.975
- F1 Scoreself-reported0.975