弹霄博科

小谈谈一亩三分地



优雅解决国内安装Ollama下载慢及卡顿的问题


发布日期: 2025/12/10
更新日期: 2025/12/10
作者: 小谈谈
分类: 运维
标签: Ollama, LLM, 大模型, 国内加速, 离线安装, 镜像源
阅读时间: 2 分钟
字数: 490 字


[图片: Ollama]
https://static.txisfine.cn/upload/8efde3fe.jpg/pkwatermark

Ollama 是一款功能完善的本地大型语言模型运行平台,能够让用户在本地环境中快速部署和运行多种主流 LLM 模型。官方安装包托管在 GitHub,但在国内部分运营商在下载安装过程中可能出现下载速度缓慢、连接中断甚至安装过程卡住的问题。

为了改善这一体验,我们在 cnb.cool 上构建了一个自动化同步流水线,定期从 Ollama 官方源拉取最新的安装包并同步到国内节点,使用户能够以更高的速度和稳定性完成下载。同时,我们对 Linux 平台的安装脚本进行了适配与重写,无需手动修改官方脚本中的源地址,即可直接使用与官方一致的安装命令完成安装过程。在保证一致性的前提下,提供了更适合国内环境的顺畅安装体验。

项目地址:https://cnb.cool/hex/ollama

欢迎大家 Star 这个项目。

同步规则

安装最新版本

macOS

```
# 下载并安装 Ollama
curl -fsSL https://cnb.cool/hex/ollama/-/releases/latest/download/Ollama.dmg -o Ollama.dmg
open Ollama.dmg
```

或直接下载:Ollama.dmg

Windows

```
# 使用 PowerShell 下载并运行安装程序
Invoke-WebRequest -Uri "https://cnb.cool/hex/ollama/-/releases/latest/download/OllamaSetup.exe" -OutFile "OllamaSetup.exe"
Start-Process "OllamaSetup.exe"
```

或直接下载:OllamaSetup.exe

Linux

```
# 自动安装脚本
curl -fsSL https://cnb.cool/hex/ollama/-/git/raw/main/install.sh | sh
```

历史版本

你可以从 https://cnb.cool/hex/ollama/-/releases 获取历史版本的安装包。


AIGC 声明:本文使用了 LLM 对文章结构和内容进行了优化,题图使用 Gemini 进行生成。