737 字
4 分钟
Weclone配置教程

WeClone配置教程#

1. 环境准备#

在Linux(WSL)环境下安装UV#

Terminal window
curl -LsSf https://astral.sh/uv/install.sh | sh

在Windows环境下安装UV#

Terminal window
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

2. 详细配置步骤#

2.1 环境准备#

  • 确保在AutoDL等云环境下配置网络加速(如果有)
Terminal window
source /etc/network_turbo

2.2 安装UV包管理器#

Terminal window
curl -LsSf https://astral.sh/uv/install.sh | sh
source $HOME/.local/bin/env

2.3 克隆WeClone仓库#

Terminal window
git clone https://github.com/xming521/WeClone.git
cd WeClone

2.4 创建并激活虚拟环境#

Terminal window
uv venv .venv --python=3.10
source .venv/bin/activate

2.5 安装依赖#

Terminal window
uv pip install --group main -e .
uv pip install -e .

2.6 验证CUDA环境#

Terminal window
python -c "import torch; print('CUDA是否可用:', torch.cuda.is_available()); print('CUDA版本:', torch.version.cuda); print('PyTorch版本:', torch.__version__)"
python --version
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())"
nvcc -V

2.7 配置WeClone设置#

Terminal window
cp settings.template.jsonc settings.jsonc
# 根据需要编辑settings.jsonc文件,配置微信相关设置

2.8 安装Git LFS(用于大模型下载)#

Terminal window
sudo apt-get update
sudo apt-get install git-lfs
git lfs install

2.9 安装LLaMA-Factory(用于模型训练)#

Terminal window
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
uv pip install -e ".[torch,metrics]"
cd ..
llamafactory-cli version

2.10 下载基础模型#

Terminal window
git clone https://www.modelscope.cn/Qwen/Qwen2.5-7B-Instruct.git

2.11 WeClone主要操作流程#

Terminal window
# 生成训练数据集
weclone-cli make-dataset
# 训练SFT模型
weclone-cli train-sft
# 启动Web聊天演示
weclone-cli webchat-demo

3. 本地访问#

AutoDL没有固定的公网ip,因此通过ip+端口(一般是7860)访问是不可行的,参考官方的说明port,在服务界面选择自定义服务

自定义服务

安装相关的工具(AutoDL-SSH-Tools.zip):

Tools

下载完成后解压,打开文件夹下的可执行文件AutoDL.exe,输入登录指令,密码和你要代理的端口(这里应该是7860):

AutoDL.exe

然后在本地浏览器里打开WebUI,即可启动Web聊天演示。

4. 可选步骤#

安装flash-attention(提高训练速度,实测有问题故放弃使用)#

Terminal window
wget https://github.com/Dao-AILab/flash-attention/releases/download/v2.7.4.post1/flash_attn-2.7.4.post1+cu12torch2.6cxx11abiTRUE-cp310-cp310-linux_x86_64.whl
uv pip install flash_attn-2.7.4.post1+cu12torch2.6cxx11abiTRUE-cp310-cp310-linux_x86_64.whl

5. 常见问题解决#

5.1 CUDA不可用的问题#

  • 检查NVIDIA驱动是否正确安装
  • 确认PyTorch版本与CUDA版本匹配

5.2 内存不足问题#

  • 减小batch_size
  • 使用gradient_checkpointing
  • 考虑使用更小的模型

5.3 数据集生成问题#

  • 确保微信聊天记录可正确获取
  • 检查settings.jsonc配置是否正确

6. WSL清理#

Terminal window
diskpart
select vdisk file = "D:\wsl\Ubuntu\ext4.vhdx"
compact vdisk
exit

7. 完整安装脚本#

Terminal window
# 用于AutoDL环境的完整安装脚本
source /etc/network_turbo
# 安装UV包管理器
curl -LsSf https://astral.sh/uv/install.sh | sh
source $HOME/.local/bin/env
# 克隆WeClone仓库并设置环境
git clone https://github.com/xming521/WeClone.git
cd WeClone
uv venv .venv --python=3.10
source .venv/bin/activate
uv pip install --group main -e .
uv pip install -e .
# 验证环境
python -c "import torch; print('CUDA是否可用:', torch.cuda.is_available()); print('CUDA版本:', torch.version.cuda); print('PyTorch版本:', torch.__version__)"
cp settings.template.jsonc settings.jsonc
python --version
python -c "import torch; print(torch.__version__); print(torch.cuda.is_available())"
nvcc -V
# 配置Git LFS
sudo apt-get update
sudo apt-get install git-lfs
git lfs install
# 安装LLaMA-Factory
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
uv pip install -e ".[torch,metrics]"
cd ..
llamafactory-cli version
# 下载基础模型
git clone https://www.modelscope.cn/Qwen/Qwen2.5-7B-Instruct.git
# WeClone主要操作流程
weclone-cli make-dataset # 生成训练数据集
weclone-cli train-sft # 训练SFT模型
weclone-cli webchat-demo # 启动Web聊天演示

8. 参考链接#

Weclone配置教程
https://fuwari.vercel.app/posts/2025-05-14-12/
作者
远梦清思
发布于
2025-05-14
许可协议
CC BY-NC-SA 4.0