Ollama Client - Chat with Local LLM Models

Ollama客户端作为一款轻量级的Chrome扩展程序,秉持隐私至上的原则,能够把本地部署的大型语言模型(LLMs)的强大功能无缝融入浏览器环境。它完全摆脱了对云端资源的依赖,无需使用API密钥,且不会向外部传输任何数据

🚀关键功能

🔌本地Ollama集成 - 连接到本地Ollama服务器(无API密钥)
💬浏览器聊天UI - 轻巧,最小,快速
⚙️自定义设置 - 控制模型参数,主题,提示模板
🔄模型切换器 - 实时切换模型之间的切换
🔍模型搜索和拉动 - UI中直接拉动型号(带有进度指示器)
🗑️模型删除带有确认的模型 - 清除UI的未使用模型
🧳负载/卸载型号 - 有效地管理Ollama内存足迹
📦模型版本显示 - 查看和比较模型版本
🎛️调音参数 - 温度,top_k,top_p,重复惩罚,停止序列
🧠成绩单和页面摘要 - 与YouTube,Udemy,Coursera和Web文章合作
tts - 内置文本到语音通过Web语音API
🗂️多聊天会话 - 保存/加载/删除本地聊天
🧯声明净请求(DNR) - 自动CORS处理(v0.1.3)
🛡️本地和私人100% - 所有存储和推理都发生在您的设备上
📋复制与再生 - 快速重新运行或复制AI响应

🎯谁应该使用Ollama客户?

👩‍💻开发人员使用或调试LLM的开发人员
📚想要本地私人LLM界面的研究人员
🎓学生使用AI作为当地硬件的学习帮助
🔐隐私提倡避免云AI和API
🤖ai修补匠和开源模型爱好者

插件说明

🧠ollama客户端 - 与浏览器内的本地LLM聊天
Ollama客户端是一种轻巧的,隐私优先的Chrome扩展名,将本地托管的大型语言模型(LLMS)的力量直接带到您的浏览器中。没有云依赖性。没有API键。没有外部发送的数据。
快速,安全,离线的第一个AI聊天聊天由诸如Llama 3,Mistral,Gemma,Codellama等开源型号提供动力,所有这些都使用Ollama Backend在您自己的机器上运行。
✨可用于所有基于铬的浏览器(Chrome,Edge,Brave)和Firefox(带有其他设置)。 100%开源。
Ollama Client - Chat with Local LLM Models插图

插件安装说明

1、在打开的谷歌浏览器的扩展管理器
就是点击最左侧的三个点,在弹出的菜单中选择【更多工具】——【扩展程序】
或者你可以在地址栏中直接输入chrome://extensions/
2、进入扩展程序页面后将开发者模式打勾
3、最后将解压出来的crx文件拖入到浏览器中即可安装添加
4、如果出现无法添加到个人目录中的情况,可以将crx文件右键,然后选择【管理员取得所有权】,再尝试重新安装
5、安装好后即可使用

Ollama Client下载地址
Ollama Client - Chat with Local LLM Models插图1
©下载资源版权归作者所有;本站所有资源均来源于网络,仅供学习使用,请支持正版!
0 0 投票数
文章评分
订阅评论
提醒
guest
0 评论
内联反馈
查看所有评论
0
希望看到您的想法,请您发表评论x