update readme and webui launch

Former-commit-id: c66ffa57323ef6ea78a9b75ec5122d9ea25fd420
This commit is contained in:
hiyouga
2024-05-04 00:43:02 +08:00
parent 99125c8825
commit 37bcbf72b4
3 changed files with 12 additions and 8 deletions

View File

@@ -344,11 +344,12 @@ pip install https://github.com/jllllll/bitsandbytes-windows-webui/releases/downl
#### 使用本地环境
```bash
export CUDA_VISIBLE_DEVICES=0 # Windows 使用 `set CUDA_VISIBLE_DEVICES=0`
export GRADIO_SERVER_PORT=7860 # Windows 使用 `set GRADIO_SERVER_PORT=7860`
llamafactory-cli webui
```
> [!TIPS]
> 您可以使用环境变量来修改 LLaMA Board 可视化界面的默认设置,例如 `export CUDA_VISIBLE_DEVICES=0 GRADIO_SERVER_NAME=0.0.0.0 GRADIO_SERVER_PORT=7860 GRADIO_SHARE=False`Windows 系统可使用 `set` 指令)。
<details><summary>阿里云用户指南</summary>
如果您在阿里云上使用 LLaMA Board 时遇到显示问题,请尝试在启动前使用以下命令设置环境变量:
@@ -392,7 +393,8 @@ docker compose -f ./docker-compose.yml up -d
使用方法请参考 [examples/README_zh.md](examples/README_zh.md)。
您可以执行 `llamafactory-cli train -h` 来查看参数文档。
> [!TIPS]
> 您可以执行 `llamafactory-cli train -h` 来查看参数文档。
### 利用 vLLM 部署 OpenAI API