智星云huggingface加速节点使用教程
注:只支持使用huggingface-cli命令下载,需要授权或者私有模型可能会下载失败
🔥 我们已为您缓存资源,无需再去hf.co下载数据,点击即用
🚀 内网极速传输,速度提升百倍以上
⏳ 告别海外源等待,下载耗时从小时级降到分钟级
只需进行下面的操作:
首先,配置环境变量:
内网:
linux:
export HF_ENDPOINT=http://192.168.50.202:18090
windows:在powershell中设定
env:HF_ENDPOINT = "http://192.168.50.202:18090"
公网:
linux:
export HF_ENDPOINT=http://223.109.239.18:18090
windows:在powershell中设定
env:HF_ENDPOINT = "http://223.109.239.18:18090"
但上述办法只能在当前会话生效,如果需要永久生效还需进行下面的操作:
linux编辑 ~/.bashrc 加入
#内网加入
env:HF_ENDPOINT = "http://192.168.50.202:18090"
#公网加入
export HF_ENDPOINT=http://223.109.239.18:18090
执行 source ~/.bashrc 马上生效
当您需要下载hf的deepseek-ai/DeepSeek-R1模型时使用命令即可下载
huggingface-cli download deepseek-ai/DeepSeek-R1
Tip:第一次下载如果没有命中缓存, 将会进行正常下载速度, 当命中缓存, 即可得到加速,享受内网传输速度。
提供一些已经cache过的模型提供高速下载
已经cache的模型使用另外一个代理地址下载,配置环境变量如下
export HF_ENDPOINT="http://guest:guest@223.109.239.18:20281/repository/hf/"
export HF_HUB_ENABLE_HF_TRANSFER=0
export HF_HUB_ENABLE_HF_XET=1
export HF_HUB_DOWNLOAD_TIMEOUT=120
export HF_HUB_ETAG_TIMEOUT=1800
如果只是下载其中个别文件,可以使用浏览器打开web去下载
http://223.109.239.18:20281/#browse/browse:hf
当前已经cache的模型列表(持续更新更多模型)
Comfy-Org/Qwen-Image_ComfyUI
Qwen/Qwen3-4B
meta-llama/Llama-4-Scout-17B-16E-Instruct
Qwen/Qwen2.5-7B-Instruct
Qwen/Qwen3-4B-Base
Qwen/Qwen3-0.6B
black-forest-labs/FLUX.1-schnell
city96/Qwen-Image-gguf
Qwen/Qwen2.5-72B-Instruct
ggml-org/gpt-oss-20b-GGUF
Kijai/WanVideo_comfy
Qwen/Qwen3-Coder-480B-A35B-Instruct
Qwen/Qwen3-Coder-30B-A3B-Instruct
openai/gpt-oss-20b
distil-whisper/distil-large-v3.5
Qwen/Qwen2.5-14B-Instruct
black-forest-labs/FLUX.1-dev
black-forest-labs/FLUX.1-Kontext-dev
black-forest-labs/FLUX.1-Krea-dev
Qwen/Qwen-Image-Edit-2509
google/gemma-3-270m
Qwen/Qwen3-Next-80B-A3B-Instruct