๋ ผ๋ฌธ ์ ๋ชฉ โ ํ์ ๋ํ ๋ถ๋ฅ LLM (IITP ์ค๋ฌด ๊ธฐ๋ฐ ๊ฒฝ๋ AI)
์ด ๋ชจ๋ธ์ ๋
ผ๋ฌธ ์ ๋ชฉ์ ์
๋ ฅํ๋ฉด ํด๋น ๋
ผ๋ฌธ์ด ๋ฐํ๋ ๊ฐ๋ฅ์ฑ์ด ๋์ ํ์ ๋ํ๋ฅผ ์์ธกํ๋ ํ๊ตญ์ด ๊ฒฝ๋ LLM์
๋๋ค.
Agent AI ํ์ฉ ํ์ฐ๊ณผ ๋ง๋ฌผ๋ ค, ์ฐ๊ตฌํ์ฅ์์ ์์ฐ์ด ๊ธฐ๋ฐ์ ๋ถ๋ฅ ์
๋ฌด๋ฅผ ์๋ํํ ์ ์๋๋ก ์ค๋ฌด ๋ฐ์ดํฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๊ตฌ์ถํ์์ต๋๋ค.
๋ณธ ํ๋ก์ ํธ๋ ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์(IITP)์ ์ ์ฑ ์ํ์๋ก์, ์ค์ ๊ธฐ๊ด์์ ์ง๋ฉดํ '๋ ผ๋ฌธ-ํ์ ๋ํ ๋ถ๋ฅ' ์ ๋ฌด๋ฅผ ํจ์จํํ๋ ๋ฐ ๊ธฐ์ฌํ๊ณ ์ ๊ธฐํ๋์์ต๋๋ค.
๐ง Model Details
- Base Model:
google/gemma-3-1b-it - Fine-tuning method: LoRA (PEFT)
- Language: Korean
- Task: Classification (๋ ผ๋ฌธ ์ ๋ชฉ โ ํ์ ๋ํ)
- Developed by: ๋ณ์ ํ
- Affiliation: ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์(IITP) ์ ๋ฌด ์ง์์ฉ Test ๋ชจ๋ธ
- Fine-tuned on: ํ๊ตญ์ฐ๊ตฌ์ฌ๋จ ํ์ ๋ํ ๋ ผ๋ฌธ์ฌ์ฌ ๋ฐ์ดํฐ (๊ณต๊ฐ CSV ํ์ฉ)
๐งพ Dataset
- ์๋ณธ:
ํ๊ตญ์ฐ๊ตฌ์ฌ๋จ_ํ์ ๋ํ๋ ผ๋ฌธ์ฌ์ฌ_20241231.csv - ๊ตฌ์ฑ:
{"text": ๋ ผ๋ฌธ ์ ๋ชฉ, "label": ํ์ ๋ํ๋ช }ํํ์ JSONL ๋ณํ - ์ํ ์: ์ฝ 9,000๊ฑด
- ์ ์ฒ๋ฆฌ ๋ฐฉ์:
[INST] ๋ ผ๋ฌธ ์ ๋ชฉ: {์ ๋ชฉ} ์ด๋ค ํ์ ๋ํ๋ช ์ธ๊ฐ์? [/INST] {ํ์ ๋ํ๋ช }ํ์์ผ๋ก Prompt ์์ฑ
๐ Model Usage
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
model = AutoModelForCausalLM.from_pretrained("JeongHeum/gemma3-korean-academic-classifier")
tokenizer = AutoTokenizer.from_pretrained("JeongHeum/gemma3-korean-academic-classifier")
prompt = "[INST] ๋
ผ๋ฌธ ์ ๋ชฉ: ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ ํ๊ตญ์ด ์์ฑ ์ธ์ ์์คํ
[/INST]"
inputs = tokenizer(prompt, return_tensors="pt").to("cuda")
outputs = model.generate(**inputs, max_new_tokens=20)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
# ์์ ์ถ๋ ฅ: ํ๊ตญ์์ฑ์ฒ๋ฆฌํํ
- Downloads last month
- 2
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
๐
Ask for provider support