Tiện ích trình duyệt Firefox
  • Tiện ích mở rộng
  • Chủ đề
    • cho Firefox
    • Từ điển & gói ngôn ngữ
    • Các trang web trình duyệt khác
    • Tiện ích cho Android
Đăng nhập
Xem trước Ollama Client

Ollama Client bởi Shishir Chaurasiya

Privacy-first Ollama Chrome extension to chat with local AI models like LLaMA, Mistral, Gemma — fully offline.

5 (1 đánh giá)5 (1 đánh giá)
114 người dùng114 người dùng
Tải xuống Firefox và tải tiện ích mở rộng
Tải xuống tập tin

Siêu dữ liệu mở rộng

Về tiện ích mở rộng này
Ollama Client – Local LLM Chat in Your Browser (Multi‑Provider)
A privacy‑first, offline AI chat experience for local LLMs with multi‑provider support.
No cloud inference. No data leaving your machine.

What It Is
Ollama Client is a browser‑based frontend UI for local LLM servers. It connects to your self‑hosted LLM backend and lets you chat inside your browser. Supports Ollama, LM Studio, and llama.cpp servers.

Key Features
- Provider & model management: connect multiple local servers, switch models, view provider status
- Chat & session management: streaming responses, stop/regenerate, session history
- File & webpage context: local file attachments and optional page context for better answers
- Customisation & performance: prompt templates, model parameters, responsive UI
- Privacy & local storage: data stored locally; no external transfer required

Supported Providers
- Ollama (Ollama UI)
- LM Studio (LM Studio client)
- llama.cpp servers (OpenAI‑compatible local endpoints / llama.cpp UI)

Privacy & Local‑Only Guarantee
- No cloud inference
- No external data transfer
- All data stays on your machine and local network

Who It’s For
- Developers working with local AI models
- Researchers evaluating self‑hosted LLMs
- Students learning with offline AI chat
- Privacy‑conscious users who avoid cloud services

Setup Summary
1) Install the extension
2) Run a supported local LLM server
3) Connect via localhost or your LAN IP
4) Start chatting

Disclaimer
- Performance depends on your hardware and the backend server
- The extension does not include models or run inference itself

Useful Links
Chrome Web Store: https://chromewebstore.google.com/detail/ollama-client/bfaoaaogfcgomkjfbmfepbiijmciinjl
Setup Guide: https://ollama-client.shishirchaurasiya.in/ollama-setup-guide
Landing Page: https://ollama-client.shishirchaurasiya.in/
Privacy Policy: https://ollama-client.shishirchaurasiya.in/privacy-policy
GitHub: https://github.com/Shishir435/ollama-client
Bug: https://github.com/Shishir435/ollama-client/issues

Start chatting in seconds — private, fast, and fully local AI conversations on your own machine.

Built for developers, researchers, and anyone who values speed, privacy, and offline AI control.

ollama #privacy #olama-client #opensource #offline #ollama-ui #ollamachat #gpt-oss #lm-studio #llama.cpp
Được xếp hạng 5 (bởi 1 người dùng)
Đăng nhập để đánh giá tiện ích này
Chưa có xếp hạng nào

Đã lưu xếp hạng sao

5
1
4
0
3
0
2
0
1
0
Đọc tất cả 1 đánh giá
Quyền hạn và dữ liệu

Quyền hạn bắt buộc:

  • Chặn nội dung trên bất kỳ trang nào
  • Truy cập các thẻ trên trình duyệt
  • Truy cập dữ liệu của bạn trên mọi trang web
Tìm hiểu thêm
Thêm thông tin
Liên kết tiện ích
  • Trang chủ
  • Trang hỗ trợ
  • Email hỗ trợ
Phiên bản
0.6.0
Kích cỡ
2,55 MB
Cập nhật gần nhất
7 ngày trước (8 Thg 02 2026)
Thể loại có liên quan
  • Phát triển Web
  • Riêng tư & Bảo mật
Giấy phép
Giấy phép MIT
Chính sách riêng tư
Đọc chính sách riêng tư của tiện ích này
Lịch sử các phiên bản
  • Xem tất cả phiên bản
Nhãn
  • chat
  • privacy
  • youtube
Thêm vào bộ sưu tập
Báo cáo tiện ích này
Đi đến trang chủ Mozilla

Tiện ích

  • Giới thiệu
  • Blog tiện ích Firefox
  • Extension Workshop
  • Trung tâm nhà phát triển
  • Chính sách nhà phát triển
  • Blog cộng đồng
  • Diễn đàn
  • Báo cáo một lỗi
  • Hướng dẫn đánh giá

Trình duyệt

  • Desktop
  • Mobile
  • Enterprise

Sản phẩm

  • Browsers
  • VPN
  • Relay
  • Monitor
  • Pocket
  • Bluesky (@firefox.com)
  • Instagram (Firefox)
  • YouTube (firefoxchannel)
  • Riêng tư
  • Cookie
  • Pháp lý

Trừ trường hợp khác đã ghi chú, nội dung trên trang này được cấp phép theo giấy phép Creative Commons Attribution Share-Alike v3.0 hoặc bất kỳ phiên bản nào sau này.