Ollama Sidekick在浏览器中使用的扩展工具,这款工具支持与本地托管的 Ollama AI 模型聊天等,欢迎下载。
介绍
Ollama Sidekick 是一个浏览器侧面板界面,用于与本地托管的 Ollama AI 模型聊天。所有对话完全发生在您的计算机上 - 不会将数据发送到外部服务器。
这个扩展的作用是什么
此扩展提供了一个聊天界面,可连接到本地计算机上运行的 Ollama。您可以询问有关您正在查看的任何网页的问题,扩展程序将包含页面内容作为 AI 的上下文。
关键能力
- 在侧面板中与当地 Ollama 模特聊天
- 自动从当前网页中提取内容作为上下文
- 突出显示任何页面上的文本以将其包含在您的问题中

- 管理多个聊天对话
- 在您已安装的任何 Ollama 模型之间切换
要求
此扩展需要在本地安装并运行 Ollama:
1. 从 ollama.com 安装 Ollama
2.下载一个模型:llama pull llama3.2
3. 在启用 CORS 的情况下启动 Ollama:
- macOS/Linux:OLLAMA_ORIGINS='*' ollama 服务
- Windows(命令提示符):设置 OLLAMA_ORIGINS=* && ollama 服务
- Windows (PowerShell): $env:OLLAMA_ORIGINS='*';乌拉马服务
4. 单击扩展图标打开侧面板
该扩展仅连接到 localhost:11434(默认 Ollama 端口)。没有联系外部服务器。
页面上下文如何工作
当您访问网页时,扩展程序可以读取页面内容并将其与您的问题一起发送到您本地的 Ollama 服务器。这可以让你问这样的问题:
- “总结这篇文章”
- “解释一下这段代码”
——“主要内容是什么?”
您可以使用扩展程序中的切换按钮启用或禁用页面上下文。
隐私
- 所有处理都在您的设备本地进行
- 无需帐户或注册
- 没有数据收集或分析
- 没有外部API调用
- 聊天记录仅存储在您的浏览器中
支持的型号
适用于 Ollama 中提供的任何模型,包括 Llama、Mistral、Gemma、CodeLlama 等。该扩展程序会检测您已安装的模型并允许您在它们之间进行切换。
故障排除
如果您看到连接错误:
1.确保Ollama已安装(从ollama.com下载)
2. 停止任何现有的 Ollama 进程:
- macOS/Linux:pkill ollama
- Windows:从系统托盘关闭 Ollama 或使用任务管理器
3. 在启用 CORS 的情况下启动 Ollama:
- macOS/Linux:OLLAMA_ORIGINS='*' ollama 服务
- Windows(命令提示符):设置 OLLAMA_ORIGINS=* && ollama 服务
- Windows (PowerShell): $env:OLLAMA_ORIGINS='*';乌拉马服务
4. 单击扩展程序中的重试按钮
Windows 用户:如果您将 Ollama 作为桌面应用程序安装,则可能需要在系统设置 > 环境变量中设置 OLLAMA_ORIGINS 环境变量,然后重新启动 Ollama 应用程序。
插件安装说明
1、在打开的谷歌浏览器的扩展管理器
就是点击最左侧的三个点,在弹出的菜单中选择【更多工具】——【扩展程序】
或者你可以在地址栏中直接输入chrome://extensions/
2、进入扩展程序页面后将开发者模式打勾
3、最后将解压出来的crx文件拖入到浏览器中即可安装添加
4、如果出现无法添加到个人目录中的情况,可以将crx文件右键,然后选择【管理员取得所有权】,再尝试重新安装
5、安装好后即可使用
扫码关注公众号,发【识别码】获取











