b站推廣入口在哪里天津seo渠道代理
下載chatglm2-6b模型文件
https://huggingface.co/THUDM/chatglm2-6b
方法一:huggingface頁面直接點(diǎn)擊下載
一個(gè)一個(gè)下載,都要下載
方法二:snapshot_download下載文件
可以使用如下代碼下載
創(chuàng)建下載環(huán)境
conda create --name hfhub python=3.10
conda activate hfhub安裝
pip install huggingface_hub -i https://pypi.tuna.tsinghua.edu.cn/simple
編寫代碼
down_glm2.py
```
from huggingface_hub import snapshot_download
import sysrepo_id = "THUDM/chatglm2-6b"
local_dir = "/opt/models/chatglm2-6b/"
local_dir_use_symlinks = False
revision = "main"
snapshot_download(repo_id=repo_id, local_dir=local_dir,local_dir_use_symlinks=local_dir_use_symlinks,revision=revision)```
snapshot_download其他參數(shù)
只允許下載部分類型的文件(以JSON為例)
allow_patterns=‘*.json’,
不允許下載部分類型的文件(以JSON為例)
ignore_patterns=[‘*.json’]
執(zhí)行下
python down_glm2.py如果有超時(shí)可以多試幾次,
或allow_patterns指定具體文件
例如:
snapshot_download(repo_id=repo_id, local_dir=local_dir,local_dir_use_symlinks=local_dir_use_symlinks,allow_patterns='pytorch_model-00001-of-00007.bin',revision=revision)
系列文章
第一篇-ChatGLM-webui-Windows安裝部署-CPU版
第二篇-二手工作站配置
第三篇-Tesla P40+CentOS-7+CUDA 11.7 部署實(shí)踐
第四篇-Miniconda3-CentOS7-安裝
第五篇-ChatGLM2-6B模型下載
第六篇-ChatGLM2-6B-CentOS安裝部署-GPU版