MODEL_MAMMOGRAFII / README.md
Enterwar99's picture
Upload README.md with huggingface_hub
b20dc61 verified
metadata
license: mit
language: pl
tags:
  - image-classification
  - mammography
  - bi-rads
  - resnet18
  - pytorch
datasets:
  - BUSBRA
  - Normal
metrics:
  - accuracy

Model Klasyfikacji BI-RADS na Obrazach Mammograficznych

Ten model to sfinetunowany ResNet-18 do klasyfikacji obraz贸w mammograficznych wed艂ug skali BI-RADS (1-5).

Opis Modelu

Model zosta艂 wytrenowany na zbiorze danych zawieraj膮cym obrazy mammograficzne z adnotacjami BI-RADS. Celem jest wsparcie w procesie diagnostycznym poprzez automatyczn膮 kategoryzacj臋 zmian.

Architektura: ResNet-18 z ostatni膮 warstw膮 w pe艂ni po艂膮czon膮 zmodyfikowan膮 do 5 klas wyj艣ciowych (BI-RADS 1 do 5) i warstw膮 Dropout (0.5).

Dane treningowe: Model by艂 trenowany na danych ze zbior贸w BUSBRA oraz lokalnego zbioru obraz贸w prawid艂owych (Normal). (Dodaj wi臋cej szczeg贸艂贸w, je艣li chcesz).

Procedura treningowa: (Opisz kr贸tko, np. liczba epok, learning rate, augmentacje - informacje z Twojego skryptu 1.py).

Przeznaczenie i Ograniczenia

Przeznaczenie: Model jest przeznaczony jako narz臋dzie pomocnicze dla radiolog贸w do wst臋pnej oceny obraz贸w mammograficznych.

Ograniczenia:

  • Model nie zast臋puje profesjonalnej diagnozy lekarskiej.
  • Jako艣膰 predykcji zale偶y od jako艣ci obrazu wej艣ciowego i jego podobie艅stwa do danych treningowych.
  • (Dodaj inne znane Ci ograniczenia).

Jak u偶ywa膰

Model mo偶na za艂adowa膰 i u偶ywa膰 w PyTorch. Poni偶ej znajduje si臋 przyk艂ad, jak za艂adowa膰 model i wykona膰 predykcj臋. Najpierw upewnij si臋, 偶e masz zainstalowane torch i torchvision.

import torch
import torchvision.models as models
import torchvision.transforms as transforms
from PIL import Image
import torch.nn as nn
from huggingface_hub import hf_hub_download

# Definicja architektury modelu (taka sama jak w use_model.py)
def get_model_architecture():
    model = models.resnet18(weights=None)
    num_feats = model.fc.in_features
    model.fc = nn.Sequential(
        nn.Dropout(0.5),
        nn.Linear(num_feats, 5)
    )
    return model

# 艢cie偶ka do repozytorium i nazwa pliku na Hugging Face Hub
REPO_ID = "TwojaNazwaUzytkownika/NazwaTwojegoModelu" # ZAST膭P!
FILENAME = "best_model.pth"

# Pobieranie wag modelu
model_path = hf_hub_download(repo_id=REPO_ID, filename=FILENAME)

# 艁adowanie modelu
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
model = get_model_architecture()
model.load_state_dict(torch.load(model_path, map_location=device))
model.to(device)
model.eval()

print("Model za艂adowany pomy艣lnie z Hugging Face Hub!")

# Transformacje dla obrazu
imagenet_mean = [0.485, 0.456, 0.406]
imagenet_std = [0.229, 0.224, 0.225]
transform = transforms.Compose([
    transforms.Resize((224, 224)),
    transforms.ToTensor(),
    transforms.Normalize(mean=imagenet_mean, std=imagenet_std)
])

# Przyk艂adowa predykcja
# try:
#     image = Image.open("sciezka/do/twojego/obrazu.jpg").convert("RGB")
#     image_tensor = transform(image).unsqueeze(0).to(device)
#     with torch.no_grad():
#         outputs = model(image_tensor)
#         probs = torch.nn.functional.softmax(outputs, dim=1)
#         confidence, predicted_idx = torch.max(probs, 1)
#         birads_category = predicted_idx.item() + 1
#     print(f"Przewidziana kategoria BI-RADS: {birads_category} z pewno艣ci膮 {confidence.item():.2%}")
# except FileNotFoundError:
#     print("Podaj poprawn膮 艣cie偶k臋 do obrazu, aby przetestowa膰 predykcj臋.")