Firefox 瀏覽器附加元件
  • 擴充套件
  • 佈景主題
    • 用於 Firefox
    • 字典與語言套件
    • 其他瀏覽器網站
    • Android 版的附加元件
登入
Ollama Client 預覽

Ollama Client 作者: Shishir Chaurasiya

Privacy-first Ollama Chrome extension to chat with local AI models like LLaMA, Mistral, Gemma — fully offline.

5(2 筆評分)5(2 筆評分)
171 位使用者171 位使用者
下載 Firefox 並安裝擴充套件
下載檔案

擴充套件後設資料

關於此擴充套件
Ollama Client – Local LLM Chat in Your Browser (Multi‑Provider)
A privacy‑first, offline AI chat experience for local LLMs with multi‑provider support.
No cloud inference. No data leaving your machine.

What It Is
Ollama Client is a browser‑based frontend UI for local LLM servers. It connects to your self‑hosted LLM backend and lets you chat inside your browser. Supports Ollama, LM Studio, and llama.cpp servers.

Key Features
- Provider & model management: connect multiple local servers, switch models, view provider status
- Chat & session management: streaming responses, stop/regenerate, session history
- File & webpage context: local file attachments and optional page context for better answers
- Customisation & performance: prompt templates, model parameters, responsive UI
- Privacy & local storage: data stored locally; no external transfer required

Supported Providers
- Ollama (Ollama UI)
- LM Studio (LM Studio client)
- llama.cpp servers (OpenAI‑compatible local endpoints / llama.cpp UI)

Privacy & Local‑Only Guarantee
- No cloud inference
- No external data transfer
- All data stays on your machine and local network

Who It’s For
- Developers working with local AI models
- Researchers evaluating self‑hosted LLMs
- Students learning with offline AI chat
- Privacy‑conscious users who avoid cloud services

Setup Summary
1) Install the extension
2) Run a supported local LLM server
3) Connect via localhost or your LAN IP
4) Start chatting

Disclaimer
- Performance depends on your hardware and the backend server
- The extension does not include models or run inference itself

Useful Links
Chrome Web Store: https://chromewebstore.google.com/detail/ollama-client/bfaoaaogfcgomkjfbmfepbiijmciinjl
Setup Guide: https://ollama-client.shishirchaurasiya.in/ollama-setup-guide
Landing Page: https://ollama-client.shishirchaurasiya.in/
Privacy Policy: https://ollama-client.shishirchaurasiya.in/privacy-policy
GitHub: https://github.com/Shishir435/ollama-client
Bug: https://github.com/Shishir435/ollama-client/issues

Start chatting in seconds — private, fast, and fully local AI conversations on your own machine.

Built for developers, researchers, and anyone who values speed, privacy, and offline AI control.

ollama #privacy #olama-client #opensource #offline #ollama-ui #ollamachat #gpt-oss #lm-studio #llama.cpp
由 1 位評論者給出 5 分
登入後即可幫此擴充套件評分
目前沒有評分

已儲存星等

5
2
4
0
3
0
2
0
1
0
閱讀全部 2 條評論
權限與資料

必要權限:

  • 封鎖任何頁面上的內容
  • 存取瀏覽器分頁
  • 存取您所有網站中的資料
了解更多
更多資訊
附加元件網址
  • 首頁
  • 技術支援網站
  • 技術支援信箱
版本
0.6.2
大小
1.89 MB
最近更新
14 天前 (2026年4月5日)
相關分類
  • 網頁開發
  • 隱私權與安全性
授權條款
MIT License
隱私權保護政策
閱讀此附加元件的隱私權保護政策
版本紀錄
  • 瀏覽所有版本
標籤
  • chat
  • privacy
  • youtube
新增至收藏集
檢舉此附加元件
前往 Mozilla 官網

附加元件

  • 關於
  • Firefox 附加元件部落格
  • 擴充套件工作坊
  • 開發者交流中心
  • 開發者政策
  • 社群部落格
  • 討論區
  • 回報 Bug
  • 評論撰寫指南

瀏覽器

  • Desktop
  • Mobile
  • Enterprise

產品

  • Browsers
  • VPN
  • Relay
  • Monitor
  • Pocket
  • Bluesky (@firefox.com)
  • Instagram (Firefox)
  • YouTube (firefoxchannel)
  • 隱私權
  • Cookie
  • 法律資訊

除另有註明外,本站內容皆採用創用 CC 姓名標示—相同方式分享條款 3.0 或更新版本授權大眾使用。