support GPTQ tuning #729 #1481 #1545 , fix chatglm template #1453 #1480 #1569

Former-commit-id: fdccc6cc9b68890199e9250cabdb996ff2f853b9
This commit is contained in:
hiyouga
2023-11-20 22:52:11 +08:00
parent 28258aecd2
commit 0105cd48f2
5 changed files with 43 additions and 4 deletions

View File

@@ -324,7 +324,7 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
```
> [!WARNING]
> 如果 fp16 精度下训练 LLaMA-2 模型,请使用 `--per_device_eval_batch_size=1`。
> 如果使用 fp16 精度进行 LLaMA-2 模型的 PPO 训练,请使用 `--per_device_train_batch_size=1`。
#### DPO 训练
@@ -499,7 +499,7 @@ CUDA_VISIBLE_DEVICES=0 python src/train_bash.py \
```
> [!WARNING]
> 如果 fp16 精度下推理 LLaMA-2 模型,请使用 `--per_device_eval_batch_size=1`。
> 如果使用 fp16 精度进行 LLaMA-2 模型的预测,请使用 `--per_device_eval_batch_size=1`。
> [!TIP]
> 我们建议在量化模型的预测中使用 `--per_device_eval_batch_size=1` 和 `--max_target_length 128`。