Ollama国内镜像下载 | 解决国外服务器慢/无法访问问题

Ollama 是一个开源的大型语言模型(LLM)本地运行工具,支持在个人电脑上部署和运行如 DeepSeek、Llama 3、Mistral、Gemma 等热门 AI 模型。它提供了简单的命令行界面(CLI),让用户无需复杂配置即可快速体验 AI 对话、代码生成等功能。

主要特点

本地运行:模型完全在本地执行,无需联网,保护隐私。

多模型支持:支持 Llama 3、Mistral、Phi-3、Gemma 等多种开源模型。

跨平台:支持 Windows、macOS 和 Linux。

易于使用:通过命令行即可下载、管理和运行模型。

下载与安装

由于网络限制,部分用户可能无法直接从 Ollama 服务器下载模型。我们提供部分热门模型的国内网盘下载,方便快速使用。

  1. 下载 Ollama,由于 Ollama 服务器位于国外,部分地区可能下载缓慢或失败,我们提供国内网盘下载(如百度网盘/夸克网盘等):Windows版和macOS版:[网盘链接 https://pan.baidu.com/s/1qDUQ5pdRpfRHj-UxkDNqcg?pwd=8itd ] Linux 版:用一个命令安装: 8itd https://ollama.com/install.sh |上海
  2. 安装后运行bash复制下载ollama run llama3 # 下载并运行 Llama 3 模型等待模型下载完成后,即可开始 AI 对话。
  3. 常用命令bash复制下载ollama list # 查看已安装的模型 ollama pull mistral # 下载 Mistral 模型 ollama remove llama3 # 删除模型。