廊坊營銷網(wǎng)站服務(wù)百度seo優(yōu)化分析
本地部署 LLaMA-Factory
- 1. 本地部署 LLaMA-Factory
- 2. 下載模型
- 3. 微調(diào)模型
- 3-1. 下載數(shù)據(jù)集
- 3-2. 配置參數(shù)
- 3-3. 啟動(dòng)微調(diào)
- 3-4. 模型評估
- 3-5. 模型對話
1. 本地部署 LLaMA-Factory
下載代碼,
git clone https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
創(chuàng)建虛擬環(huán)境,
conda create -n llama_factory python=3.11 -y
conda activate llama_factory
安裝 LLaMA-Factory,
pip install -e '.[torch,metrics]'
驗(yàn)證,
import torch
torch.cuda.current_device()
torch.cuda.get_device_name(0)
torch.__version__
print(torch.cuda.is_available())
我機(jī)器的輸入如下,
2. 下載模型
安裝 huggingface_hub,
pip install "huggingface_hub[hf_transfer]"
下載 Qwen/Qwen2.5-7B-Instruct
,
HF_HUB_ENABLE_HF_TRANSFER=1 huggingface-cli download Qwen/Qwen2.5-7B-Instruct
3. 微調(diào)模型
3-1. 下載數(shù)據(jù)集
LLaMA-Factory項(xiàng)目內(nèi)置了豐富的數(shù)據(jù)集,放在了data目錄下。您可以跳過本步驟,直接使用內(nèi)置數(shù)據(jù)集。您也可以準(zhǔn)備自定義數(shù)據(jù)集,將數(shù)據(jù)處理為框架特定的格式,放在data下,并且修改dataset_info.json文件。
本教程準(zhǔn)備了一份多輪對話數(shù)據(jù)集,運(yùn)行下述命令下載數(shù)據(jù)。
mkdir workspace; cd workspace
wget https://atp-modelzoo-sh.oss-cn-shanghai.aliyuncs.com/release/tutorials/llama_factory/data.zip
unzip data.zip
3-2. 配置參數(shù)
啟動(dòng) webui,然后,打開瀏覽器,訪問 http://localhost:7860,進(jìn)入WebUI后,可以切換到中文(zh)。
llamafactory-cli webui
首先配置模型,本教程選擇LLaMA3-8B-Chat模型,微調(diào)方法則保持默認(rèn)值lora,使用LoRA輕量化微調(diào)方法能極大程度地節(jié)約顯存。
設(shè)置學(xué)習(xí)率為1e-4,梯度累積為2,有利于模型擬合。
點(diǎn)擊LoRA參數(shù)設(shè)置展開參數(shù)列表,設(shè)置LoRA+學(xué)習(xí)率比例為16,LoRA+被證明是比LoRA學(xué)習(xí)效果更好的算法。在LoRA作用模塊中填寫all,即將LoRA層掛載到模型的所有線性層上,提高擬合效果。
3-3. 啟動(dòng)微調(diào)
將輸出目錄修改為train_qwen2.5,訓(xùn)練后的LoRA權(quán)重將會保存在此目錄中。點(diǎn)擊「預(yù)覽命令」可展示所有已配置的參數(shù),您如果想通過代碼運(yùn)行微調(diào),可以復(fù)制這段命令,在命令行運(yùn)行。
點(diǎn)擊「開始」啟動(dòng)模型微調(diào)。
3-4. 模型評估
微調(diào)完成后,點(diǎn)擊檢查點(diǎn)路徑,即可彈出剛剛訓(xùn)練完成的LoRA權(quán)重,點(diǎn)擊選擇下拉列表中的train_qwen2.5選項(xiàng),在模型啟動(dòng)時(shí)即可加載微調(diào)結(jié)果。
選擇「Evaluate&Predict」欄,在數(shù)據(jù)集下拉列表中選擇「eval」(驗(yàn)證集)評估模型。更改輸出目錄為eval_llama3,模型評估結(jié)果將會保存在該目錄中。最后點(diǎn)擊開始按鈕啟動(dòng)模型評估。
模型評估大約需要5分鐘左右,評估完成后會在界面上顯示驗(yàn)證集的分?jǐn)?shù)。其中ROUGE分?jǐn)?shù)衡量了模型輸出答案(predict)和驗(yàn)證集中標(biāo)準(zhǔn)答案(label)的相似度,ROUGE分?jǐn)?shù)越高代表模型學(xué)習(xí)得更好。
3-5. 模型對話
選擇「Chat」欄,確保適配器路徑是train_qwen2.5,點(diǎn)擊「加載模型」即可在Web UI中和微調(diào)模型進(jìn)行對話。
點(diǎn)擊「卸載模型」,點(diǎn)擊“×”號取消檢查點(diǎn)路徑,再次點(diǎn)擊「加載模型」,即可與微調(diào)前的原始模型聊天。
本次教程介紹了如何使用PAI和LLaMA Factory框架,基于輕量化LoRA方法微調(diào)Qwen2.5模型,使其能夠進(jìn)行中文問答和角色扮演,同時(shí)通過驗(yàn)證集ROUGE分?jǐn)?shù)和人工測試驗(yàn)證了微調(diào)的效果。在后續(xù)實(shí)踐中,可以使用實(shí)際業(yè)務(wù)數(shù)據(jù)集,對模型進(jìn)行微調(diào),得到能夠解決實(shí)際業(yè)務(wù)場景問題的本地領(lǐng)域大模型。
參考資料:
- models-downloading
- LLaMA Factory:微調(diào)LLaMA3模型實(shí)現(xiàn)角色扮演
- LLaMA-Factory QuickStart