test_1023

基于 Qwen2.5-0.5B 使用LoRA微调的对话生成模型。

模型描述

  • 基座模型: Qwen2.5-0.5B
  • 微调方法: LoRA (rank=64)
  • 训练数据: 自定义对话数据集
  • 适用任务: 开放域对话、客服问答等

使用方法

python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("thdddd/test_1023") tokenizer = AutoTokenizer.from_pretrained("thdddd/test_1023") input_text = "你好,能推荐北京的美食吗?" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(​**​inputs, max_length=100) print(tokenizer.decode(outputs[0], skip_special_tokens=True))

训练参数

参数
学习率 2e-5
训练轮数 3
LoRA Rank 64
批大小 8

许可证

Apache-2.0(与基座模型保持一致)

Downloads last month
10
Safetensors
Model size
0.5B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for thdddd/test_1023

Base model

Qwen/Qwen2.5-0.5B
Adapter
(333)
this model