QVikhr-3-8B-Instruction

Инструктивная модель на основе Qwen/Qwen3-8B, обученная на русскоязычном датасете GrandMaster2. Создана для высокоэффективной обработки текстов на русском и английском языках, обеспечивая точные ответы и быстрое выполнение задач.

Quantized variants:

Особенности:

  • 📚 Основа / Base: Qwen/Qwen3-8B
  • 🇷🇺 Специализация / Specialization: RU
  • 💾 Датасет / Dataset: GrandMaster2
  • 🌍 Поддержка / Support: Bilingual RU/EN

Попробовать:

Open In Colab

DOoM

model score math_score physics_score
gpt-4.1 0.466 0.584 0.347
QVikhr-3-8B-Instruction 0.445 0.563 0.327
Qwen3-8B 0.417 0.538 0.296
Gemma 3 27B 0.4 0.474 0.327

Описание / Description:

QVikhr-3-8B-Instruction — мощная языковая модель, обученная на датасете GrandMaster-2, поддерживает генерацию инструкций, контекстные ответы и анализ текста на русском языке. Эта модель оптимизирована для задач инструктивного обучения и обработки текстов. Она подходит для использования в профессиональной среде, а также для интеграции в пользовательские приложения и сервисы.

Модель построена на базе архитектуры Qwen/Qwen3-8B и была дообучена на большом русскоязычном датасете GrandMaster2. Такое специализированное обучение значительно улучшило её способность генерировать точные, контекстно-зависимые ответы и быстро выполнять задачи на русском языке.

Тесты производительности подтверждают значительные улучшения модели. В рейтинге «DOoM» QVikhr-3-8B-Instruction получила оценку 0.445, что существенно превосходит результат базовой модели Qwen3-8B, и приближается к модели gpt-4.1. Это доказывает её превосходные возможности для решения задач связанные с математикой и физикой на русском языке.

Обучение:

QVikhr-3-8B-Instruction была создана с использованием метода SFT (Supervised Fine-Tuning). Мы использовали синтетический датасет GrandMaster-2.

Пример кода для запуска:

Рекомендуемая температура для генерации: 0.3.

from transformers import AutoModelForCausalLM, AutoTokenizer

# Load the model and tokenizer
model_name = "Vikhrmodels/QVikhr-3-8B-Instruction"
model = AutoModelForCausalLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

# Prepare the input text
input_text = "Напиши краткое описание книги Гарри Поттер."

messages = [
    {"role": "user", "content": input_text},
]

# Tokenize and generate text
input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
output = model.generate(
    input_ids,
    max_length=4096,
    temperature=0.3,
    num_return_sequences=1,
    no_repeat_ngram_size=2,
    top_k=50,
    top_p=0.95,
)

# Decode and print result
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
print(generated_text)

Авторы

Ссылки

Vikhr Vikhr Telegram Донаты

Как цитировать

@inproceedings{nikolich2024vikhr,
  title={Vikhr: Advancing Open-Source Bilingual Instruction-Following Large Language Models for Russian and English},
  author={Aleksandr Nikolich and Konstantin Korolev and Sergei Bratchikov and Nikolay Kompanets and Igor Kiselev and Artem Shelmanov},
  booktitle={Proceedings of the 4th Workshop on Multilingual Representation Learning (MRL) @ EMNLP-2024},
  year={2024},
  publisher={Association for Computational Linguistics},
  url={[https://arxiv.org/pdf/2405.13929](https://arxiv.org/pdf/2405.13929)}
}

@misc{qwen3technicalreport,
      title={Qwen3 Technical Report}, 
      author={Qwen Team},
      year={2025},
      eprint={2505.09388},
      archivePrefix={arXiv},
      primaryClass={cs.CL},
      url={https://arxiv.org/abs/2505.09388}, 
}
Downloads last month
1,798
Safetensors
Model size
8B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Vikhrmodels/QVikhr-3-8B-Instruction

Base model

Qwen/Qwen3-8B-Base
Finetuned
Qwen/Qwen3-8B
Finetuned
(541)
this model
Quantizations
6 models

Dataset used to train Vikhrmodels/QVikhr-3-8B-Instruction