test_1023
基于 Qwen2.5-0.5B 使用LoRA微调的对话生成模型。
模型描述
- 基座模型: Qwen2.5-0.5B
- 微调方法: LoRA (rank=64)
- 训练数据: 自定义对话数据集
- 适用任务: 开放域对话、客服问答等
使用方法
python from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained("thdddd/test_1023") tokenizer = AutoTokenizer.from_pretrained("thdddd/test_1023") input_text = "你好,能推荐北京的美食吗?" inputs = tokenizer(input_text, return_tensors="pt") outputs = model.generate(**inputs, max_length=100) print(tokenizer.decode(outputs[0], skip_special_tokens=True))
训练参数
| 参数 | 值 |
|---|---|
| 学习率 | 2e-5 |
| 训练轮数 | 3 |
| LoRA Rank | 64 |
| 批大小 | 8 |
许可证
Apache-2.0(与基座模型保持一致)
- Downloads last month
- 10
Model tree for thdddd/test_1023
Base model
Qwen/Qwen2.5-0.5B