Anything LLM

This commit is contained in:
Abel Fokkinga 2025-03-10 11:22:35 +01:00
parent 30ae56bf1d
commit 168161781f
No known key found for this signature in database
3 changed files with 32 additions and 2 deletions

View File

@ -26,7 +26,7 @@ Het installeren van LM Studio is vrij eenvoudig! Hier zijn de stappen:
### Ollama
![LM Studio](./images/ollama.png)
![Ollama](./images/ollama.png)
Ollama is een platform waarmee je krachtige Large Language Models (LLMs) lokaal op je computer kunt draaien. Het biedt een gebruiksvriendelijke interface, ondersteunt verschillende modellen en waarborgt je privacy doordat het volledig offline kan werken.
@ -70,4 +70,34 @@ pip install open-webui
```bash
open-webui
```
4. Toegang tot de interface: Open je browser en ga naar http://localhost:3000.
4. Toegang tot de interface: Open je browser en ga naar http://localhost:3000.
## RAG (Retrieval-Augmented Generation)
RAG voor Retrieval-Augmented Generation. Het is een techniek die Large Language Models (LLMs) combineert met geavanceerde zoekmogelijkheden om nauwkeurigere en contextueel relevante antwoorden te genereren. Hier is hoe het werkt:
1. Informatie ophalen: Wanneer een gebruiker een vraag stelt, zoekt het systeem in een externe kennisbron (zoals een database of documenten) naar relevante informatie.
2. Generatie verbeteren: De opgehaalde informatie wordt toegevoegd aan de prompt die naar het LLM wordt gestuurd. Dit helpt het model om antwoorden te genereren die gebaseerd zijn op actuele en specifieke gegevens.
3. Voordelen:
-Nauwkeurigheid: Het vermindert de kans op "hallucinaties" (onjuiste antwoorden) door het model te baseren op echte gegevens.
- Flexibiliteit: Het kan worden toegepast op domeinspecifieke kennis, zoals juridische documenten of technische handleidingen.
- Up-to-date informatie: Omdat het informatie in real-time ophaalt, blijft het relevant, zelfs als de kennisbasis verandert.
RAG wordt vaak gebruikt in toepassingen zoals klantenservice, juridische analyse en andere domeinen waar nauwkeurigheid en context cruciaal zijn.
Met een RAG kun je dus eigen informatie toevoegen. Je kunt dit doen via bijvoorbeeld een Python script maar er zijn ook programma's voor zoals AnythingLLM
### AnythingLLM
![AnythingLLM toevoegen documenten](.images/AnythingLLM_1.png)
![AnythingLLM](images/AnythingLLM_2.png)
AnythingLLM is een veelzijdige AI-toepassing waarmee je krachtige Large Language Models (LLMs) lokaal kunt draaien op je computer. Het biedt een gebruiksvriendelijke interface en ondersteunt functies zoals:
- Documentbeheer: Chatten met documenten zoals PDF's, Word-bestanden en codebases.
- AI Agents: Creëer en gebruik AI-agents zonder codeervaardigheden.
- Privacy: Alles draait lokaal, dus je gegevens blijven privé.
- Multi-model ondersteuning: Werkt met zowel open-source als commerciële LLMs.
- Open Source: Het is gratis en aanpasbaar, zodat je het kunt uitbreiden met eigen functies.
Je kunt AnythingLLM koppelen met je LM Studio of ollama installatie.

BIN
images/AnythingLLM_1.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 402 KiB

BIN
images/AnythingLLM_2.png Normal file

Binary file not shown.

After

Width:  |  Height:  |  Size: 582 KiB