智星云文档
  • 新手入门

    • 算力租用流程
    • 常见问题
    • 如何选择GPU
  • 技术相关

    • turbovnc安装配置
    • 智星云huggingface加速节点使用教程
    • AI模型库:服务器预载,极速下载
    • linux安装cuda和pytorch方法
    • 测试服务器带宽的方法
    • windows常见问题
    • GPU测速
    • Linux实用基础
    • jupyter notebook连接linux
    • VSCode连接到云主机
    • macOS系统连接到云主机
    • 拓展磁盘
    • 端口映射
    • GPU无法调用
    • ssh链接保持
    • ssh在云主机后台运行
    • 基于SSH的链接异常
    • VSCode远程连接失败
    • centos7-epel加速
    • conda使用源
    • docker镜像压缩
    • dynslam安装
    • huggingface下载
    • ubuntu安装显卡驱动
    • 编译tensorflow
    • linux上传文件&数据上传Windows
    • 更新git到最新
    • 回环设备
    • nvidia-smi输出解析
    • Topaz 视频处理教程

**注:**只支持使用huggingface-cli命令下载,需要授权或者私有模型可能会下载失败

🔥 我们已为您缓存资源,无需再去hf.co下载数据,点击即用

🚀 内网极速传输,速度提升百倍以上

⏳ 告别海外源等待,下载耗时从小时级降到分钟级

只需进行下面的操作:

首先,配置环境变量:

内网:

linux:

export HF_ENDPOINT=http://192.168.50.202:18090 

windows:在powershell中设定

env:HF_ENDPOINT = "http://192.168.50.202:18090"

公网:

linux:

export HF_ENDPOINT=http://223.109.239.18:18090 

windows:在powershell中设定

env:HF_ENDPOINT = "http://223.109.239.18:18090"

但上述办法只能在当前会话生效,如果需要永久生效还需进行下面的操作:

linux编辑 ~/.bashrc 加入

#内网加入
env:HF_ENDPOINT = "http://192.168.50.202:18090"


#公网加入
export HF_ENDPOINT=http://223.109.239.18:18090

执行 source ~/.bashrc 马上生效

当您需要下载hf的deepseek-ai/DeepSeek-R1模型时使用命令即可下载

huggingface-cli download deepseek-ai/DeepSeek-R1 

Tip:第一次下载如果没有命中缓存, 将会进行正常下载速度, 当命中缓存, 即可得到加速,享受内网传输速度。

提供一些已经cache过的模型提供高速下载

已经cache的模型使用另外一个代理地址下载,配置环境变量如下

export HF_ENDPOINT="http://guest:guest@223.109.239.18:20281/repository/hf/"
export HF_HUB_ENABLE_HF_TRANSFER=0
export HF_HUB_ENABLE_HF_XET=1
export HF_HUB_DOWNLOAD_TIMEOUT=120
export HF_HUB_ETAG_TIMEOUT=1800

如果只是下载其中个别文件,可以使用浏览器打开web去下载

http://223.109.239.18:20281/#browse/browse:hf

当前已经cache的模型列表(持续更新更多模型)
Comfy-Org/Qwen-Image_ComfyUI
Qwen/Qwen3-4B
meta-llama/Llama-4-Scout-17B-16E-Instruct
Qwen/Qwen2.5-7B-Instruct
Qwen/Qwen3-4B-Base
Qwen/Qwen3-0.6B
black-forest-labs/FLUX.1-schnell
city96/Qwen-Image-gguf
Qwen/Qwen2.5-72B-Instruct
ggml-org/gpt-oss-20b-GGUF
Kijai/WanVideo_comfy
Qwen/Qwen3-Coder-480B-A35B-Instruct
Qwen/Qwen3-Coder-30B-A3B-Instruct
openai/gpt-oss-20b
distil-whisper/distil-large-v3.5
Qwen/Qwen2.5-14B-Instruct
black-forest-labs/FLUX.1-dev
black-forest-labs/FLUX.1-Kontext-dev
black-forest-labs/FLUX.1-Krea-dev
Qwen/Qwen-Image-Edit-2509
google/gemma-3-270m
Qwen/Qwen3-Next-80B-A3B-Instruct 
Prev
turbovnc安装配置
Next
AI模型库:服务器预载,极速下载