Page Assist - A Web UI for Local AI Models értékelései
Page Assist - A Web UI for Local AI Models szerző: Muhammed Nazeem
Michal Mikoláš értékelése
Csillagos értékelés: 5 / 5
készítette: Michal Mikoláš, 4 hónapjaCompatible with not only ollama, but OpenRouter as well. Very customizable and just works!
73 értékelés
Fejlesztői válasz
közzétéve: 6 órájaHi, I’m uploading the latest version to the store, but the add-on has not been approved yet. It is still under review. It has been two months, and there is no timeline for when Mozilla Firefox will approve it. I’m sorry.- Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 14457244, 5 napja
- Csillagos értékelés: 5 / 5készítette: TA, egy hónapjaVery good extension, but the defaults are a little bit conservative.
So for example the default text size from the page you are viewing when sent to LLM is truncated to only 7 kilobytes (around 1500 tokens).
So for bigger pages LLM doesn't even know what's on the page.
You can change this default in: "Settings -> Pipeline settings -> Maximum Content Size for Full Context Mode". It's in bytes. - Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 12490047, egy hónapja
- Very good browser extension for AI model use. It is programmed in a very clever way, lightweigt and ressource saving, but full functionality. Compared to all other AI frontends, it is the best one i know. Congratulations! Greetings from Germany :-)
- Csillagos értékelés: 5 / 5készítette: Robin Filer, 4 hónapja
- Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 19622186, 5 hónapja
- Csillagos értékelés: 4 / 5készítette: Firefox felhasználó 14478686, 5 hónapjaI'm a novice, but finding Page Assist to be a useful tool for finding my way with Ollama, if I had to work with cmd line only I'd have given up. This is great.
- Csillagos értékelés: 5 / 5készítette: HumanistAtypik, 6 hónapja
- This easily replaces what Firefox's options provide for use with cloud-based LLMs. I can finally use the shortcuts to summarize and rephrase things for work that I can't have going to a cloud. I already had Ollama running locally, it automatically detected it. It was ready to use out of the box. It seems perfect!
- Absolutely perfect, to only thing i think could improve is the extension icon which doesnt match a lot with modern browsers UIs.
Also i did not understand if the extension provides tools for Ollama hosted LLMs to perform web searches, or its only using the Ollama API. - Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 19258258, 9 hónapja
- Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 19244952, 9 hónapja
- Csillagos értékelés: 5 / 5készítette: Vick, 10 hónapjaThis addon deserves a 180K +ve reviews (not just 18 reviews)! After struggling with Openweb UI, frontend, backend and bash scripts in vain, to make my local LLM work on Linux Mint, I downloaded this and it JUST worked in 10 seconds. That is it. It required nothing else! Thank you Mr Nazeem. Awesome work! Now, I need to find out how to add other models from the UI, or of course, I can add them from terminal.
- Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 19104715, 10 hónapja
- Csillagos értékelés: 5 / 5készítette: Firefox felhasználó 18939203, egy éve