本教程将指导你把 Ollama 服务从本机(127.0.0.1)暴露到局域网中,使同一网络下的其他设备能够调用你电脑上的 Ollama 模型。

目录

  1. 配置 Ollama 监听所有地址

  2. 开放 Windows 防火墙端口

  3. 验证监听地址

  4. 获取服务端电脑的局域网 IP

  5. 在其他设备上测试调用

  6. 安全提醒

  7. 常见问题与解决


1. 配置 Ollama 监听所有地址

Ollama 默认只监听 127.0.0.1(本机)。要让其他电脑访问,需设置环境变量 OLLAMA_HOST=0.0.0.0

步骤:

  1. 退出 Ollama:在系统托盘区(右下角)找到 Ollama 图标,右键点击 → Quit Ollama(退出)。

  2. 打开系统环境变量设置

    • 右键点击“此电脑” → “属性” → “高级系统设置” → “环境变量”。

  3. 添加系统变量
    在“系统变量”区域点击“新建”,输入:

    • 变量名:OLLAMA_HOST

    • 变量值:0.0.0.0:11434

  4. 逐层点击“确定”保存。

  5. 重启 Ollama:从开始菜单或桌面快捷方式重新启动 Ollama。

说明0.0.0.0 表示监听所有网络接口(包括局域网 IP、虚拟网卡等)。端口 11434 是 Ollama 的默认端口。


2. 开放 Windows 防火墙端口

即使 Ollama 开始监听,Windows 防火墙默认会拦截外部对 11434 端口的访问。需要添加一条入站规则。

方法一:命令行(推荐,快速)

管理员身份打开命令提示符或 PowerShell,执行:

cmd
netsh advfirewall firewall add rule name="Allow Ollama Port 11434" dir=in action=allow protocol=TCP localport=11434

看到“确定。”即表示成功。

方法二:图形界面

  1. 打开“控制面板” → “Windows Defender 防火墙” → “高级设置”。

  2. 点击“入站规则” → “新建规则”。

  3. 选择“端口” → “下一步”。

  4. 选择“TCP”,填入“特定本地端口”:11434 → “下一步”。

  5. 选择“允许连接” → “下一步”。

  6. 按需勾选网络类型(建议全选)→ “下一步”。

  7. 输入名称(如 Allow Ollama Port 11434)→ “完成”。


3. 验证监听地址

确保 Ollama 已经正确监听 0.0.0.0:11434

在命令提示符中运行:

cmd
netstat -an | findstr :11434

期望输出(关键行):

text
TCP    0.0.0.0:11434          0.0.0.0:0              LISTENING
TCP    [::]:11434             [::]:0                 LISTENING
  • 如果只看到 127.0.0.1:11434,说明环境变量未生效。请重新检查步骤 1,确保 Ollama 已完全退出并重启。


4. 获取服务端电脑的局域网 IP

在运行 Ollama 的电脑上执行:

cmd
ipconfig

找到你当前正在使用的网络适配器的 IPv4 地址。例如:

text
以太网适配器 以太网 2:
   IPv4 地址 . . . . . . . . . . . . : 192.168.3.106

记下这个 IP(如 192.168.3.106)。

注意:如果你有多个网络接口(如虚拟网卡、WiFi 和以太网同时连接),请选择与你的客户端设备处于同一网段的那一个。


5. 在其他设备上测试调用

5.1 浏览器测试

在另一台电脑的浏览器中输入:

text
http://192.168.3.106:11434

(将 IP 替换为你的实际地址)

如果看到类似 Ollama is running 的响应,说明访问成功。

5.2 命令行测试(Windows curl)

Ollama 的 /api/generate 接口需要 POST JSON 数据。Windows 的 curl 命令要求使用双引号并转义内部双引号

正确格式(注意转义):

cmd
curl -H "Content-Type: application/json" -d "{\"model\":\"qwen3:14b\",\"prompt\":\"Hello\",\"stream\":false}" http://192.168.3.106:11434/api/generate
  • 如果希望得到流式输出(逐字返回),去掉 \"stream\":false 或设为 true(默认)。

成功响应示例(非流式):

json
{"model":"qwen3:14b","created_at":"...","response":"Hello! How can I assist you today?","done":true}

5.3 使用 PowerShell(更简单,无需复杂转义)

在 PowerShell 中运行:

powershell
Invoke-RestMethod -Uri "http://192.168.3.106:11434/api/generate" -Method Post -Body '{"model":"qwen3:14b","prompt":"Hello","stream":false}' -ContentType "application/json"

5.4 在 GUI 工具中配置

如果你有一个类似截图中的 Ollama 客户端设置界面,将 Ollama 接口地址 改为:

text
http://192.168.3.106:11434

保存后即可搜索并调用模型。

 

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。