Code Llama: Open Foundation Models for Code
Paper
โข 2308.12950 โข Published
โข 29
โ ๏ธ ์ด ๋ชจ๋ธ์ ๋ ์ด์ ์ฌ์ฉ๋์ง ์์ต๋๋ค. tellang/yeji-8b-rslora-v7-AWQ๋ฅผ ์ฌ์ฉํ์ธ์.
์ด ๋ชจ๋ธ์ rsLoRA + ORPO ๋ฐฉ์์ผ๋ก ํ์ต๋์์ผ๋ ๋ฒ ํธ๋จ์ด ์ถ๋ ฅ ๋ฌธ์ ๋ก ์ธํด ํ๊ธฐ๋์์ต๋๋ค.
# ์์ ์ถ๋ ฅ (ํ๊ตญ์ด)
"์ค๋์ ์ข์ ๋ ์
๋๋ค."
# ์ค์ ์ถ๋ ฅ (๋ฒ ํธ๋จ์ด)
"Hรดm nay lร mแปt ngร y tแปt lร nh."
๊ทผ๋ณธ ์์ธ: Qwen3 ๋ค๊ตญ์ด ํ๋ฆฌํธ๋ ์ด๋
# ํ๋กฌํํธ
prompt = "์ฌ์ฉ์์ ์ค๋ ์ด์ธ๋ฅผ ํ๊ตญ์ด๋ก ์๋ ค์ฃผ์ธ์."
# v5 ์ถ๋ ฅ (๋ฒ ํธ๋จ์ด ํผ์
)
response = "์ค๋์ ์ด์ธ๋ Sao Kim sแบฝ mang lแบกi may mแบฏn..."
# ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
# ๋ฒ ํธ๋จ์ด: ๊ธ์ฑ์ด ํ์ด์ ๊ฐ์ ธ์ฌ ๊ฒ์
๋๋ค
๋ฐ์ ๋น๋: ์ ์ฒด ์๋ต์ ์ฝ 15-20%
์ด๊ธฐ์๋ Qwen3-Base์ ๋ค๊ตญ์ด ๋ฅ๋ ฅ์ด ์ฅ์ ์ผ๋ก ๋ณด์์ผ๋:
tellang/yeji-8b-rslora-v7-AWQfrom vllm import LLM, SamplingParams
llm = LLM(
model="tellang/yeji-8b-rslora-v7-AWQ",
quantization="awq",
)
# ๋ค๊ตญ์ด ์ถ๋ ฅ ๋ฐฉ์ง ํ๋กฌํํธ
system_prompt = """๋น์ ์ ํ๊ตญ์ด ์ด์ธ ์ ๋ฌธ๊ฐ์
๋๋ค.
๋ฐ๋์ ํ๊ตญ์ด๋ก๋ง ์๋ตํ์ธ์. ๋ค๋ฅธ ์ธ์ด๋ ์ ๋ ์ฌ์ฉํ์ง ๋ง์ธ์."""
sampling_params = SamplingParams(
temperature=0.7,
top_p=0.9,
max_tokens=512,
)
tellang/yeji-4b-rslora-v8.1 (๋ค๊ตญ์ด ๋ฌธ์ ํด๊ฒฐ)tellang/yeji-8b-rslora-v7-AWQ (๋ค๊ตญ์ด ๋ฌธ์ ํด๊ฒฐ)์์คํ ํ๋กฌํํธ ๊ฐํ
system_prompt = """๋น์ ์ ํ๊ตญ์ด ์ด์ธ ์๋ด์ฌ์
๋๋ค.
๊ท์น:
1. ํ๊ตญ์ด๋ก๋ง ์๋ตํฉ๋๋ค
2. ๋ฒ ํธ๋จ์ด, ์ค๊ตญ์ด, ์์ด ๋ฑ ๋ค๋ฅธ ์ธ์ด๋ ์ ๋ ์ฌ์ฉ ๊ธ์ง
3. ํ๊ตญ์ด ๋ฌธ๋ฒ์ ์ ํํ ๋ฐ๋ฆ
๋๋ค
"""
Few-Shot Learning
Constrained Decoding (์ ํ์ )
# vLLM guided decoding์ผ๋ก ํ๊ตญ์ด ํ ํฐ๋ง ํ์ฉ
sampling_params = SamplingParams(
logits_processor=[korean_only_filter],
)
| ์งํ | v5 (rsLoRA) | v7-AWQ (rsLoRA + ๋ค๊ตญ์ด ์ต์ ) |
|---|---|---|
| ํ๊ตญ์ด ์๋ | 80-85% | 99%+ |
| ๋ฒ ํธ๋จ์ด ์ถ๋ ฅ | 15-20% | <1% |
| ์ถ๋ก ์๋ | 30 tokens/s | 50 tokens/s (AWQ) |
| ์ ํ๋ | Baseline | +10% |
# v5 - ๋ฒ ํธ๋จ์ด ์ถ๋ ฅ ์ํ
llm = LLM(model="tellang/yeji-8b-lora-v5")
output = llm.generate("์ค๋์ ์ด์ธ๋?")
# ์ถ๋ ฅ: "Hรดm nay sแบฝ cรณ nhiแปu may mแบฏn..." โ
# v7-AWQ - ํ๊ตญ์ด ์ ์ฉ
llm = LLM(model="tellang/yeji-8b-rslora-v7-AWQ", quantization="awq")
# ๋ค๊ตญ์ด ๋ฐฉ์ง ํ๋กฌํํธ
prompt = f"""{system_prompt}
์ฌ์ฉ์ ์ง๋ฌธ: ์ค๋์ ์ด์ธ๋?
์๋ด์ฌ ์๋ต:"""
output = llm.generate(prompt)
# ์ถ๋ ฅ: "์ค๋์ ๊ธ์ ์ ์ธ ์๋์ง๊ฐ ๊ฐ๋ํ ๋ ์
๋๋ค..." โ
Apache 2.0
@misc{yeji-8b-lora-v5,
title={YEJI Fortune Telling Model (rsLoRA v5 - Deprecated)},
author={SSAFY YEJI Team},
year={2026},
note={Deprecated: Vietnamese output issue. Use yeji-8b-rslora-v7-AWQ instead}
}
Base model
Qwen/Qwen3-8B-Base