Skip to content

blancberger/my_local_ai_chatbot

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 

Repository files navigation

# 🚀 my_local_ai_chatbot (Ollama + Open WebUI)

Ένα 100% τοπικό, ασφαλές και ιδιωτικό AI Chatbot που τρέχει εξ ολοκλήρου στον υπολογιστή σας χρησιμοποιώντας Docker και Ollama. Κανένα δεδομένο δεν φεύγει ποτέ από το μηχάνημά σας.Αυτό το repository περιέχει *μόνο* τα αρχεία ρυθμίσεων (docker-compose.yml) για το στήσιμο του chat interface (Open WebUI). Τα μοντέλα και τα δεδομένα συνομιλιών παραμένουν τοπικά.


# 🛠️ Τεχνολογίες (Tech Stack)

* **Backend (Inference Server):** [Ollama](https://ollama.com/) (Τρέχει τοπικά, ιδανικά σε WSL)

* **Frontend (Chat Interface):** [Open WebUI](https://openwebui.com/) (Τρέχει σε Docker)

* **Containerization:** [Docker](https://www.docker.com/) & [Docker Compose] (https://docs.docker.com/compose/)

* **Model:** [Meta Llama 3 8B](https://huggingface.co/meta-llama/Meta-Llama-3-8B) ή (https://ollama.com/library/llama3) (ή οποιοδήποτε άλλο από τη βιβλιοθήκη του Ollama)


# ⚙️ Πώς να το Τρέξετε

**Προαπαιτούμενα:**(WINDOWS 11 + WSL2)

1. Εγκατεστημένο [Ollama](https://ollama.com/) στο σύστημά σας (π.χ., σε WSL).

2. Εγκατεστημένο [Docker Desktop](https://www.docker.com/products/docker-desktop/).


# ⚙️ Οδηγίες

Ακολουθήστε αυτά τα βήματα για να το στήσετε στο δικό σας Windows/WSL σύστημα.

  Εγκατάσταση & Εκκίνηση του Ollama (Backend)

Αν δεν το έχετε ήδη, εγκαταστήστε το Ollama μέσα στο WSL (π.χ., Ubuntu) terminal σας:

 bash

curl -fsSL [https://ollama.com/install.sh](https://ollama.com/install.sh) | sh

 bash

ollama pull llama3:8b

(Το Ollama πρέπει να τρέχει στο background για να λειτουργήσει το chat interface)

Εκκίνηση του Chat Interface (Frontend)

Απλά κλωνοποιήστε αυτό το repository και χρησιμοποιήστε το docker-compose.yml που περιέχεται:

# Αφού κατεβάσετε αυτό το project, μπείτε στον φάκελό του docker-compose.yml (ανοίξτε ένα τερματικό bash εκτελέστε το εξής:

docker compose up -d

Αυτό θα ξεκινήσει το Open WebUI container.

Tada!!! Μιλήστε!

 Ανοίξτε τον αγαπημένο σας browser και πηγαίνετε στο:

http://localhost:8080

Θα σας ζητηθεί να δημιουργήσετε έναν πρώτο (τοπικό) λογαριασμό διαχειριστή. Μόλις συνδεθείτε, τα μοντέλα που κατεβάσατε με το Ollama θα εμφανιστούν αυτόματα στο drop-down μενού.

Καλές συζητήσεις!!!

About

A 100% private, local AI chatbot using Ollama and Docker

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors