网络上相应的教程基本都基于LLaMA-Factory进行,本文章主要顺着相应的教程一步步实现大模型的微调和训练。
训练环境: 可自行定义, mac、linux 或者window之类的均可以, 本文以mac操作系统为例子进行。
1: 搭建conda环境,来隔离python运行环境
wget --user-agent="Mozilla" https://mirrors.tuna.tsinghua.edu.cn/anaconda/archive/Anaconda3-2024.10-1-MacOSX-arm64.sh
2:执行安装脚本
bash Anaconda3-2024.10-1-MacOSX-arm64.sh
3:成功运行后可以通过conda version 查看自己安装的conda 版本
4:利用conda 新建一个python的运行环境(对应的python版本为3.10, 虚拟环境的名字可以自行定义)
conda create -n llama_fatory python=3.10
5:进入创建的虚拟环境
conda activate llama_fatory
之后可以利用常规的conda命令,或者python命令,可以查看相对应环境的各种基本信息。
6: LLaMA-Factory安装,可以参照github 上的安装步骤, 核心步骤为以下几个命令
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]" -i https://pypi.tuna.tsinghua.edu.cn/simple
7:等待提示安装成功,就可以利用LLaMA提供的相应命令,进行简单操作
LLaMA-Factory-main llamafactory-cli help
----------------------------------------------------------------------
| Usage: |
| llamafactory-cli api -h: launch an OpenAI-style API server |
| llamafactory-cli chat -h: launch a chat interface in CLI |
| llamafactory-cli eval -h: evaluate models |
| llamafactory-cli export -h: merge LoRA adapters and export model |
| llamafactory-cli train -h: train models |
| llamafactory-cli webchat -h: launch a chat interface in Web UI |
| llamafactory-cli webui: launch LlamaBoard |
| llamafactory-cli version: show version info |
----------------------------------------------------------------------
8: 下载训练所需要的基础模型;可以通过huggingface.co 或者 modelscope 等网站进行下载
下载命令DEMO(可以依据实际的环境情况和业务需求选择合适的基础镜像):
mkdir models && cd models
git clone https://www.modelscope.cn/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B.git
9:利用llamafactory-cli webui 命令来启动 LLaMA-Factory 的web界面
10:准备自定义数据
cd data && cat aiops.json
编辑dataset_info.json, 来增加自定义的数据:
11:通过web页面来完成相应的训练准备操作
(1)选择模型(主要指定模型的路径)
(2)预览自定义数据集
(3)选择Supervised Fine-Tuning
可设置训练的轮数,比如设置成100, 训练的轮数和自定义数据集的大小相关,如果数据集较大,则相应的轮数尽量少点。
(4)点击开始训练,并等待训练完成
(5)训练完成后,则可以导出模型进行验证