GEMMA3-PMB-UNSI - GGUF Model untuk Ollama

Model ini adalah hasil fine-tuning Gemma 3 1B untuk chatbot PMB (Penerimaan Mahasiswa Baru) dalam format GGUF yang siap digunakan dengan Ollama.

πŸ“Š Model Files

File Size Format Description
gemma3-pmb-unsiq-q4_k_m.gguf 768.72 MB Q4_K_M (4-bit) Recommended for production
gemma3-pmb-unsiq-f16.gguf 1.87 GB F16 (16-bit) Recommended for production

πŸš€ Quick Start dengan Ollama

1. Download Modelfile dan GGUF

# Download file Q4_K_M (recommended)
wget https://huggingface.co/Pandusu/Qlora-gguf-v4/resolve/main/gemma3-pmb-unsiq-q4_k_m.gguf

# Download Modelfile
wget https://huggingface.co/Pandusu/Qlora-gguf-v4/resolve/main/Modelfile.gemma3-pmb-unsi

2. Import ke Ollama

# Create model di Ollama
ollama create gemma3-pmb-unsi -f Modelfile.gemma3-pmb-unsi

# Verifikasi
ollama list

3. Jalankan Model

# Run model
ollama run gemma3-pmb-unsi

# Contoh query
ollama run gemma3-pmb-unsi "Jelaskan tentang proses pendaftaran mahasiswa baru"

πŸ’» Penggunaan via API

import requests

def chat_with_model(question):
    response = requests.post('http://localhost:11434/api/generate',
        json={
            "model": "gemma3-pmb-unsi",
            "prompt": question,
            "stream": False
        })
    return response.json()['response']

# Contoh
answer = chat_with_model("Apa saja jalur pendaftaran yang tersedia?")
print(answer)

πŸ“‹ Model Details

  • Base Model: google/gemma-2-1b
  • Training Method: QLoRA (Quantized Low-Rank Adaptation)
  • Language: Indonesian
  • Domain: Educational (PMB/University Admission)
  • Format: GGUF
  • Quantization: Q4_K_M (4-bit) and F16 (16-bit)

🎯 Use Cases

Model ini dioptimalkan untuk menjawab pertanyaan seputar:

  • Proses pendaftaran mahasiswa baru
  • Persyaratan dan dokumen
  • Jadwal dan timeline pendaftaran
  • Biaya dan beasiswa
  • Program studi yang tersedia
  • Informasi umum kampus

βš™οΈ Model Parameters (di Modelfile)

PARAMETER temperature 0.7
PARAMETER top_p 0.9
PARAMETER top_k 40
PARAMETER repeat_penalty 1.1
PARAMETER num_ctx 4096
PARAMETER num_predict 512

πŸ“¦ Alternative: Pull via Ollama Library

Jika sudah dipublish ke Ollama Library:

ollama pull gemma3-pmb-unsi

πŸ”§ System Requirements

  • RAM: Minimum 4GB (8GB recommended)
  • Storage: ~1GB untuk Q4_K_M model
  • GPU: Optional (CPU-only supported)

πŸ“ Training Details

Model ini di-train menggunakan:

  • Dataset custom untuk PMB Indonesia
  • QLoRA untuk efficient fine-tuning
  • Unsloth untuk optimasi training
  • Total training epochs: [sesuaikan]
  • Learning rate: [sesuaikan]

πŸ“„ License

Model ini menggunakan lisensi dari base model Gemma. Silakan cek Gemma Terms of Use untuk detail lengkap.

🀝 Citation

Jika menggunakan model ini dalam penelitian atau project, mohon cantumkan:

@misc{gemma3_pmb_unsi,
  title={gemma3-pmb-unsi: Fine-tuned Gemma 3 1B for Indonesian University Admission Chatbot},
  author={PMB Chatbot Project},
  year={2025},
  publisher={Hugging Face},
  howpublished={\url{https://huggingface.co/Pandusu/Qlora-gguf-v4}}
}

πŸ“§ Contact

Untuk pertanyaan atau issue, silakan buka issue di repository atau hubungi maintainer.


Note: Model ini khusus untuk keperluan edukasi dan chatbot PMB. Hasil jawaban model sebaiknya divalidasi oleh pihak terkait sebelum digunakan di production.

Downloads last month
1
GGUF
Model size
1.0B params
Architecture
gemma3
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Space using Pandusu/Qlora-gguf-v4 1