📚 **Genel Açıklama** Qwen3-14B-Merged-Education-TR, Alibaba’nın Qwen3 modelinin LoRA yöntemiyle **Türk eğitim sistemi verileri** (Millî Eğitim Temel Kanunu, yönetmelikler, zorunlu eğitim kademeleri, öğretmen atama-yer değiştirme, yükseköğretim mevzuatı, hayat boyu öğrenme raporları) üzerinde ince ayar yapılmış, **4-bit kuantalı tek dosya** hâlinde dağıtılan özelleştirilmiş bir dil modelidir. Model; **öğretmenler, müfettişler, eğitim fakültesi öğrencileri, eğitim yöneticileri, mevzuat araştırmacıları** ve güncel, güvenilir eğitim bilgisine hızla erişmek isteyen herkes için tasarlanmıştır. Türk eğitim sistemi, MEB teşkilat yapısı ve ilgili mevzuat hakkında açıklayıcı, pratiğe dönük ve madde-numaralı referanslar içeren yanıtlar üretir. ⚠️ **Önemli Not** Model çıktıları **danışma amaçlıdır**; resmî yazışma, dava dosyası veya kritik idarî kararlarda mutlaka güncel mevzuatı kontrol edin ve uzman görüşü alın. --- ✨ **Yetenekler** * Türkiye’de **zorunlu eğitim (4 + 4 + 4)**, okul kademeleri ve ders saatleri hakkında ayrıntılı bilgi * MEB merkez-taşra teşkilatı, görev ve sorumluluklar (657 DMK, 1739 Sayılı Kanun, 3797 KHK) * **Öğretmen atama, yer değiştirme, kariyer basamakları** (Adaylık, Uzman, Başöğretmen) * **Yükseköğretim** program açma/kapama süreçleri, YÖK mevzuatı referanslı yanıtlar * Hayat Boyu Öğrenme kurs programları, açık öğretim okulları ve akreditasyon bilgisi * **BEP / Özel eğitim** destek modelleri ve RAM iş akışları * 4-bit kuantalama ⇒ **düşük bellekte hızlı yanıt** --- 🚀 **Hızlı Başlangıç** ```python from unsloth import FastLanguageModel device = "cuda" # veya "cpu" max_seq_length = 4096 # ihtiyaca göre artırılabilir model, tokenizer = FastLanguageModel.from_pretrained( model_name = "OrionCAF/TurkishEducation", max_seq_length = max_seq_length, load_in_8bit = False, # 4-bit zaten hazır ) FastLanguageModel.for_inference(model) messages = [ {"role": "user", "content": "Türkiye’de zorunlu eğitim kaç yıldır ve kademeleri nelerdir?"} ] inputs = tokenizer.apply_chat_template( messages, tokenize=True, add_generation_prompt=True, return_tensors="pt" ).to(device) output = model.generate( input_ids=inputs, max_new_tokens=512, temperature=0.6, min_p=0.1, use_cache=True, ) print(tokenizer.decode(output[0], skip_special_tokens=True)) ``` --- 🧠 **Model Detayları** | Özellik | Değer | | ------------------ | ------------------------------------------------------------------------------------------------------------------------------------------------------------------------ | | **Temel Model** | Qwen3-14B | | **Eğitim Yöntemi** | LoRA (r = 32, α = 32) | | **Eğitim Verisi** | Millî Eğitim Temel Kanunu, MEB yönetmelikleri, EĞİTEK & Talim‐Terbiye raporları, TBMM tutanakları, akademik makaleler, hayat boyu öğrenme strateji belgeleri (2009-2018) | | **Dil Desteği** | Türkçe (birincil), İngilizce (ek) | --- ## 👥 Ekibimiz * **Ferhat Kürkçüoğlu** – [LinkedIn](https://www.linkedin.com/in/ferhatkurkcuoglu/) * **Cengizhan Bayram** – [LinkedIn](https://www.linkedin.com/in/cengizhan-bayram-a66009223/) * **Cevdet Ahmet Turan** – [LinkedIn](https://www.linkedin.com/in/cevdet-ahmet-turan/) * **Volkan Altıntaş** – [LinkedIn](https://www.linkedin.com/in/volkanaltintas/) Ekip olarak eğitim, tarım ve diğer sektörler için yüksek verimli Türkçe yapay zekâ modelleri geliştiriyoruz. --- ⚠️ **Kısıtlamalar** 1. Model **yalnızca eğitim odaklı** verilerle eğitildi; tıp, finans vb. alanlarda sınırlı bilgiye sahiptir. 2. Eğitim verileri **2025 Mayıs** sonuna kadardır; sonrasındaki yönetmelik değişiklikleri modele yansımamış olabilir. 3. 4-bit kuantalama tam hassasiyete göre kısmen performans kaybına yol açabilir. 4. Üretilen yanıtların resmî geçerliliğini kontrol etmek kullanıcının sorumluluğundadır. --- 📄 **Lisans** Bu model **Apache License 2.0** altında yayınlanmıştır. Uygun atıf yaptığınız sürece ticari kullanım dâhil serbestçe kullanabilir, değiştirebilir ve dağıtabilirsiniz.