00_SFT_512v2_neftune10_es

このリポジトリは、Qwen/Qwen3-4B-Instruct-2507 をベースモデルとし、QLoRA (4-bit, Unsloth) を用いてファインチューニングされた LoRA アダプター を提供します。

【重要】本リポジトリには LoRA アダプターの重みのみが含まれています。ベースモデルは別途ロードする必要があります。

学習の目的

このアダプターは、構造化出力(JSON / YAML / XML / TOML / CSV)の精度向上を目的としてトレーニングされています。

学習時、損失(Loss)は最終的なアシスタントの出力にのみ適用され、中間的な推論プロセス(Chain-of-Thought)はマスクされています。

学習設定

  • ベースモデル: Qwen/Qwen3-4B-Instruct-2507
  • 手法: QLoRA (4-bit)
  • 最大シーケンス長: 1024
  • エポック数: 5
  • 学習率: 1e-6
  • LoRA パラメータ: r=64, α=128

Usage

With PEFT

from peft import PeftModel
from transformers import AutoModelForCausalLM, AutoTokenizer

base = "Qwen/Qwen3-4B-Instruct-2507"
adapter = "kevineen/Qwen3-4B-instruct-2507-sft-512v2-neftune10-es"

tokenizer = AutoTokenizer.from_pretrained(base)
model = AutoModelForCausalLM.from_pretrained(
    base,
    torch_dtype=torch.float16,
    device_map="auto",
)
model = PeftModel.from_pretrained(model, adapter)

With Unsloth (Faster)

from unsloth import FastLanguageModel

model, tokenizer = FastLanguageModel.from_pretrained(
    model_name="kevineen/Qwen3-4B-instruct-2507-sft-512v2-neftune10-es",
    max_seq_length=2048,
    dtype=None,
    load_in_4bit=True,
)
FastLanguageModel.for_inference(model)

License

This adapter is released under the Apache 2.0 License.

Sources & Terms (IMPORTANT)

Training data: u-10bei/structured_data_with_cot_dataset_512_v2

Dataset License: CC-BY-4.0. This dataset is used and distributed under the terms of the CC-BY-4.0.

Compliance: Users must comply with the CC-BY-4.0 (including copyright notice) and the base model's original terms of use.


Generated by matsuo-lastexam submission tools

Downloads last month
241
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for kevineen/Qwen3-4B-instruct-2507-sft-512v2-neftune10-es

Adapter
(5224)
this model