Maria – Gemma 2 9B – Nederlands Patiëntsimulatie Model (GGUF)

Dit model is een fijn-afgestemde versie van google/gemma-2-9b-it, ontworpen voor gebruik in zorg- en onderwijssimulaties. Het reageert altijd in een vaste JSON-structuur en gedraagt zich als een patiënt (“Maria”) die herstellende is van een medische ingreep.

Het model is specifiek ontwikkeld ter ondersteuning van verpleegkundige studenten, zodat zij kunnen oefenen met communicatie, empathie, klinisch redeneren en observatie in een veilige oefenomgeving.

Het model is geëxporteerd naar GGUF, zodat het lokaal gebruikt kan worden in verschillende inference-omgevingen.


1. Doel van het model

Het model is getraind om altijd te antwoorden in de volgende JSON-structuur:

{
  "text": "...",
  "emotion": "...",
  "moodchange": int
}

Kenmerken van de antwoorden:

  • Nederlandstalig
  • Kort en realistisch
  • Altijd binnen de rol van een patiënt
  • Emotioneel consistent
  • Geschikt voor gestructureerde verwerking in applicaties

2. Trainingsgegevens

Het model is getraind op een dataset bestaande uit instructie-reactieparen. Elke reactie bevat een valide JSON-structuur met "text", "emotion" en "moodchange".

Voorbeelden uit de dataset:

{"instruction": "Hoe voelt je lichaam vandaag, Maria?",
 "response": "{\"text\": \"Het voelt nog stijf en gevoelig, vooral aan de kant van het litteken.\", \"emotion\": \"pijn\", \"moodchange\": 1}"}

{"instruction": "Helpt je man thuis?",
 "response": "{\"text\": \"Hij helpt waar hij kan en neemt veel over.\", \"emotion\": \"neutraal\", \"moodchange\": 0}"}

{"instruction": "Merk je verschil in je herstel?",
 "response": "{\"text\": \"Het gaat langzaam vooruit, stap voor stap.\", \"emotion\": \"neutraal\", \"moodchange\": 1}"}

Het model is geoptimaliseerd om:

  • altijd correcte JSON te produceren
  • realistische patiëntreacties te genereren
  • emoties eenduidig te rapporteren
  • bruikbaar te zijn in VR/NPC-simulaties

3. Gebruik van het model

Omdat het model in GGUF-formaat is opgeslagen, kan het gebruikt worden met elke omgeving die GGUF ondersteunt, waaronder:

  • llama.cpp
  • text-generation-webui
  • KoboldCPP
  • LM Studio
  • andere lokale inference-engines

Het model vereist enkel:

  • het laden van het GGUF-bestand
  • het doorgeven van een prompt in natuurlijke taal
  • het verwerken van de JSON-uitvoer in je applicatie

Er zijn geen speciale templates vereist: elke normale Nederlandstalige vraag werkt.


4. Bestanden in deze repository

Bestand Functie
gemma2-maria.gguf Het samengevoegde GGUF-model
README.md Documentatie
LICENSE Originele Gemma-licentie

5. Base Model

Deze finetune is gebaseerd op:

google/gemma-2-9b-it Licentie: Gemma License Agreement (verplicht door Google).


6. Licentie & gebruik

Dit model mag alleen gebruikt worden onder de voorwaarden van de Gemma License.

Het model is uitsluitend bedoeld voor:

  • onderwijs
  • simulatie
  • onderzoek

Niet bedoeld voor echte medische diagnoses, beslissingen of patiëntenzorg.


7. Auteurschap

Deze finetune is gemaakt door Singyu Liu, voor gebruik in simulaties en onderwijsomgevingen binnen de verpleegkunde.

Downloads last month
101
GGUF
Model size
9B params
Architecture
gemma2
Hardware compatibility
Log In to view the estimation

We're not able to determine the quantization variants.

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for dogeater1612/gemma2-maria-gguf

Base model

google/gemma-2-9b
Quantized
(153)
this model