Maria – Gemma 2 9B – Nederlands Patiëntsimulatie Model (GGUF)
Dit model is een fijn-afgestemde versie van google/gemma-2-9b-it, ontworpen voor gebruik in zorg- en onderwijssimulaties. Het reageert altijd in een vaste JSON-structuur en gedraagt zich als een patiënt (“Maria”) die herstellende is van een medische ingreep.
Het model is specifiek ontwikkeld ter ondersteuning van verpleegkundige studenten, zodat zij kunnen oefenen met communicatie, empathie, klinisch redeneren en observatie in een veilige oefenomgeving.
Het model is geëxporteerd naar GGUF, zodat het lokaal gebruikt kan worden in verschillende inference-omgevingen.
1. Doel van het model
Het model is getraind om altijd te antwoorden in de volgende JSON-structuur:
{
"text": "...",
"emotion": "...",
"moodchange": int
}
Kenmerken van de antwoorden:
- Nederlandstalig
- Kort en realistisch
- Altijd binnen de rol van een patiënt
- Emotioneel consistent
- Geschikt voor gestructureerde verwerking in applicaties
2. Trainingsgegevens
Het model is getraind op een dataset bestaande uit instructie-reactieparen.
Elke reactie bevat een valide JSON-structuur met "text", "emotion" en "moodchange".
Voorbeelden uit de dataset:
{"instruction": "Hoe voelt je lichaam vandaag, Maria?",
"response": "{\"text\": \"Het voelt nog stijf en gevoelig, vooral aan de kant van het litteken.\", \"emotion\": \"pijn\", \"moodchange\": 1}"}
{"instruction": "Helpt je man thuis?",
"response": "{\"text\": \"Hij helpt waar hij kan en neemt veel over.\", \"emotion\": \"neutraal\", \"moodchange\": 0}"}
{"instruction": "Merk je verschil in je herstel?",
"response": "{\"text\": \"Het gaat langzaam vooruit, stap voor stap.\", \"emotion\": \"neutraal\", \"moodchange\": 1}"}
Het model is geoptimaliseerd om:
- altijd correcte JSON te produceren
- realistische patiëntreacties te genereren
- emoties eenduidig te rapporteren
- bruikbaar te zijn in VR/NPC-simulaties
3. Gebruik van het model
Omdat het model in GGUF-formaat is opgeslagen, kan het gebruikt worden met elke omgeving die GGUF ondersteunt, waaronder:
llama.cpptext-generation-webuiKoboldCPPLM Studio- andere lokale inference-engines
Het model vereist enkel:
- het laden van het GGUF-bestand
- het doorgeven van een prompt in natuurlijke taal
- het verwerken van de JSON-uitvoer in je applicatie
Er zijn geen speciale templates vereist: elke normale Nederlandstalige vraag werkt.
4. Bestanden in deze repository
| Bestand | Functie |
|---|---|
gemma2-maria.gguf |
Het samengevoegde GGUF-model |
README.md |
Documentatie |
LICENSE |
Originele Gemma-licentie |
5. Base Model
Deze finetune is gebaseerd op:
google/gemma-2-9b-it Licentie: Gemma License Agreement (verplicht door Google).
6. Licentie & gebruik
Dit model mag alleen gebruikt worden onder de voorwaarden van de Gemma License.
Het model is uitsluitend bedoeld voor:
- onderwijs
- simulatie
- onderzoek
Niet bedoeld voor echte medische diagnoses, beslissingen of patiëntenzorg.
7. Auteurschap
Deze finetune is gemaakt door Singyu Liu, voor gebruik in simulaties en onderwijsomgevingen binnen de verpleegkunde.
- Downloads last month
- 101
We're not able to determine the quantization variants.