Ollama本地化部署指南(Windows版)

此方案可实现主流大模型本地化运行,适合需要数据隐私保护的开发场景。建议优先测试7B/13B等小参数量模型,再逐步尝试更大模型

一、软件安装

1. 下载安装包

访问Ollama官网下载Windows安装程序。

2.运行安装程序

ollama_windows_installer.exe

默认安装路径为 C:\Program Files\Ollama,安装过程自动配置系统服务。

3.验证安装

ollama serve

若显示Listening on 127.0.0.1:11434表示服务启动成功。

二、模型安装与管理

在线安装模型

# 下载官方模型库中的模型(需联网)
ollama pull llama2          # Meta Llama2 基础模型
ollama run qwen2.5:14b      #  qwen2.5 14B 模型

离线安装模型

1.获取模型文件

从HuggingFace下载GGUF/GGML格式文件,如llama-2-7b-chat.Q4_K_M.gguf

2.创建Modelfile

新建Modelfile.llama2文件,内容:

FROM ./llama-2-7b-chat.Q4_K_M.gguf
PARAMETER num_ctx 4096

3.导入本地模型

ollama create my-llama2 -f Modelfile.llama2

三、环境变量配置

1.模型存储路径

默认路径:%USERPROFILE%\.ollama\models
修改路径方法:

  • 新建系统变量 OLLAMA_MODELS,值为目标路径(如D:\ai_models)
  • 重启终端使配置生效

2.服务端配置

# 修改服务监听地址(可选)
setx OLLAMA_HOST "0.0.0.0"
# 修改服务端口(可选)
setx OLLAMA_PORT 18888

四、基础使用命令

# 启动对话
ollama run llama2

# 查看已安装模型
ollama list

# 删除模型
ollama rm mistral

五、注意事项

1.硬件要求

  • 至少16GB内存(7B模型)
  • 推荐使用NVIDIA GPU并安装CUDA驱动加速

2.网络问题

在线下载模型时建议使用代理工具,可通过环境变量配置:

setx HTTP_PROXY "http://127.0.0.1:7890"

3.文件权限

安装路径避免使用系统保护目录(如Program Files),建议选择用户目录。

最后修改日期: 2025年 3月 1日

作者

留言

撰写回覆或留言

发布留言必须填写的电子邮件地址不会公开。