Lume ავტორი Digitalhen
"What to read next" — on your machine. Lume embeds pages locally and ranks a live news feed against your recent reading. Embeddings and history stay on device.
გაფართოების მონაცემები
ეკრანის სურათები
გაფართოების შესახებ
What it does
Lume is a "what to read next" engine that runs entirely in your browser. As you read articles around the web, Lume notices when you've dwelled on a page (5+ seconds, at least one scroll) and embeds it locally using a small sentence-transformer model (
A live US news feed refreshes hourly behind the scenes — general, technology, business, and science top headlines from major outlets. Lume ranks those stories against what you've been reading recently and surfaces them in two places:
What's local vs. remote
- Local: page text capture, embeddings, similarity matching, your reading history, the "muted sites" list. None of this ever leaves your device.
- Remote: a one-time ~25 MB model download from huggingface.co (cached forever); periodic news-feed fetch from a Cloudflare Worker we operate (the news API key stays server-side; no user data is sent in the request).
No analytics. No telemetry. No accounts.
Source code: https://github.com/digitalhen/story-discovery-localai
Lume is a "what to read next" engine that runs entirely in your browser. As you read articles around the web, Lume notices when you've dwelled on a page (5+ seconds, at least one scroll) and embeds it locally using a small sentence-transformer model (
Xenova/all-MiniLM-L6-v2, ~25 MB, int8-quantized).A live US news feed refreshes hourly behind the scenes — general, technology, business, and science top headlines from major outlets. Lume ranks those stories against what you've been reading recently and surfaces them in two places:
- An in-page popup that slides in bottom-right after you've dwelled: "Read next: …"
- A Discovery page (toolbar icon) with a grid of 10 stories matched to your reading, diversified so you don't see ten variations of the same story, each annotated "Because you read X"
What's local vs. remote
- Local: page text capture, embeddings, similarity matching, your reading history, the "muted sites" list. None of this ever leaves your device.
- Remote: a one-time ~25 MB model download from huggingface.co (cached forever); periodic news-feed fetch from a Cloudflare Worker we operate (the news API key stays server-side; no user data is sent in the request).
No analytics. No telemetry. No accounts.
Source code: https://github.com/digitalhen/story-discovery-localai
Open any site, scroll once, wait 5s — popup appears bottom-right. Toolbar icon opens the Discovery grid but you need to open a handful of pages first.
0 შეფასება 0 მიმომხილველისგან
ნებართვები და მონაცემები
მოთხოვნილი ნებართვები:
- ბრაუზერის ჩანართებთან წვდომა
- თქვენს მონაცემებთან წვდომა ყველა საიტზე
აღსარიცხი მონაცემები:
- შემქმნელის თქმით ეს გაფართოება არ საჭიროებს მონაცემთა აღრიცხვას.
დამატებითი მონაცემები
- დამატების ბმულები
- ვერსია
- 0.1.0
- ზომა
- 5,29 მბ
- ბოლო განახლება
- 3 დღის წინ (12 მაი 2026)
- მსგავსი კატეგორიები
- ლიცენზია
- MIT-ლიცენზია
- პირადი მონაცემების დაცვის დებულება
- გაეცანით ამ დამატების პირადულობის დაცვის დებულებას
- ვერსიის ისტორია
- კრებულში დამატება