
Ollama Web Extension ์ ์์: Abhay
Securely connect your locally hosted Ollama LLM to websites you trust. This extension exposes a simple API (window.ollama) to supported sites, enabling them to connect to your Ollama instance โ without sending any data to the cloud.
์ฌ์ฉ์ 17๋ช
์ฌ์ฉ์ 17๋ช
์ด ํ์ฅ ๊ธฐ๋ฅ์ ์ฌ์ฉํ๋ ค๋ฉด Firefox๊ฐ ํ์ํจ
ํ์ฅ ๋ฉํ ๋ฐ์ดํฐ
์ ๋ณด
Ollama Web Extension allows websites (like your own custom apps) to securely and privately communicate with an Ollama LLM running on your local machine.
It injects a lightweight API into supported webpages, enabling features like:
No tunneling. No cloud. No privacy tradeoffs.
It injects a lightweight API into supported webpages, enabling features like:
Listing available local models
Sending prompts and receiving generated text
Keeping all data processing on your device
No tunneling. No cloud. No privacy tradeoffs.
1๋ช
์ ๋ฆฌ๋ทฐ์ด๊ฐ 5๋ก ํ๊ฐํจ
๊ถํ ๋ฐ ๋ฐ์ดํฐ๋ ์์๋ณด๊ธฐ
ํ์ํ ๊ถํ:
- ๋ธ๋ผ์ฐ์ ํญ์ ์ ๊ทผ
- ๋ชจ๋ ์น์ฌ์ดํธ์์ ์ฌ์ฉ์์ ๋ฐ์ดํฐ์ ์ ๊ทผ
์ถ๊ฐ ์ ๋ณด
- ๋ถ๊ฐ ๊ธฐ๋ฅ ๋งํฌ
- ๋ฒ์
- 1.0.3
- ํฌ๊ธฐ
- 88.82 KB
- ๋ง์ง๋ง ์ ๋ฐ์ดํธ
- 2๋ฌ ์ (2025๋ 7์ 6์ผ)
- ๊ด๋ จ ์นดํ ๊ณ ๋ฆฌ
- ๋ผ์ด์ ์ค
- MIT ๋ผ์ด์ ์ค
- ๋ฒ์ ๋ชฉ๋ก
- ๋ชจ์์ง์ ์ถ๊ฐ
๋ฒ์ 1.0.3์ ์ถ์ ์ ๋ณด
Bug Fixes,
Added UI for Queues and advanced model management
Added UI for Queues and advanced model management
Abhay ๋์ ๋ค๋ฅธ ํ์ฅ ๊ธฐ๋ฅ
- ์์ง ํ์ ์ด ์์ต๋๋ค
- ์์ง ํ์ ์ด ์์ต๋๋ค
- ์์ง ํ์ ์ด ์์ต๋๋ค
- ์์ง ํ์ ์ด ์์ต๋๋ค
- ์์ง ํ์ ์ด ์์ต๋๋ค
- ์์ง ํ์ ์ด ์์ต๋๋ค