Το Open WebUI είναι μια αυτοφιλοξενούμενη πλατφόρμα ανοιχτού κώδικα που σας επιτρέπει να εκτελείτε μοντέλα γλώσσας τεχνητής νοημοσύνης στον δικό σας υπολογιστή με πλήρη έλεγχο των δεδομένων σας. Υποστηρίζει τοπικά μοντέλα όπως το Ollama, καθώς και API συμβατά με OpenAI. Μπορείτε να φιλοξενήσετε μόνοι σας το Open WebUI χρησιμοποιώντας Docker, Python ή Kubernetes. Εδώ, θα δείξουμε μια βήμα προς βήμα διαδικασία για την εγκατάσταση του Open WebUI στον τοπικό σας υπολογιστή.
Γιατί να χρησιμοποιήσετε το Open WebUI;
Το Open WebUI σάς προσφέρει έναν εύκολο και ευέλικτο τρόπο χρήσης της Τεχνητής Νοημοσύνης με τους δικούς σας όρους. Υποστηρίζει διαφορετικά μοντέλα Τεχνητής Νοημοσύνης και λειτουργεί σε οποιοδήποτε σημαντικό λειτουργικό σύστημα. Διαθέτει μια καθαρή διεπαφή τύπου ChatGPT, προσφέροντας λειτουργίες όπως Markdown, LaTeX, πρόσθετα και ένα ενσωματωμένο σύστημα μνήμης για την αποθήκευση χρήσιμου περιεχομένου.
Μπορείτε να ενσωματώσετε πρόσθετα (plugins), να συνδέσετε API και να διαχειριστείτε πολλαπλές συνομιλίες ταυτόχρονα. Επιπλέον, μπορείτε να αποθηκεύσετε μηνύματα προτροπής για να διατηρείτε τις καλύτερες ιδέες σας έτοιμες για χρήση. Ως εργαλείο ανοιχτού κώδικα, εξελίσσεται γρήγορα με συνεισφορές από την κοινότητα, διασφαλίζοντας ότι έχετε πάντα πρόσβαση σε νέες λειτουργίες και βελτιώσεις.
Εγκατάσταση Open WebUI
Για να εγκαταστήσετε το Open WebUI χρησιμοποιώντας το Docker, πρέπει πρώτα να ρυθμίσετε έναν κατάλογο έργου και, στη συνέχεια, να μεταβείτε σε αυτόν:
mkdir openwebui
cd openwebui
Τώρα, δημιουργήστε ένα αρχείο “docker-compose.yml” σε οποιοδήποτε πρόγραμμα επεξεργασίας όπως το Σημειωματάριο:
nano docker-compose.yml
Επικολλήστε το ακόλουθο περιεχόμενο στο αρχείο “docker-compose.yml”:
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
ports:
- "11434:11434"
environment:
- OLLAMA_USE_GPU=false
volumes:
- ollama_data:/root/.ollama
restart: unless-stopped
openwebui:
image: ghcr.io/open-webui/open-webui:main
container_name: openwebui
ports:
- "3000:8080"
environment:
- OLLAMA_BASE_URL=http://ollama:11434
depends_on:
- ollama
volumes:
- open-webui:/app/backend/data
restart: unless-stopped
volumes:
open-webui:
ollama_data:
Αυτό το αρχείο Docker Compose εκτελεί δύο υπηρεσίες, το ollama και το OpenWebUI . Το ollama χρησιμοποιεί την εικόνα ollama/ollama, ακούει στη θύρα 11434, απενεργοποιεί τη χρήση GPU και αποθηκεύει δεδομένα στον τόμο ollama_data. Από την άλλη πλευρά, το Open WebUI χρησιμοποιεί την εικόνα open-webui, αντιστοιχίζει τη θύρα 3000 με την 8080, συνδέεται με το ollama μέσω της βασικής διεύθυνσης URL και αποθηκεύει δεδομένα στον τόμο open-webui. Και οι δύο υπηρεσίες επανεκκινούνται εκτός εάν διακοπούν και οι επώνυμοι τόμοι διατηρούν τα δεδομένα μόνιμα.
Αποθηκεύστε το αρχείο docker-compose και ξεκινήστε την υπηρεσία Docker:
docker compose up -d
Πρόσβαση και χρήση του Open WebUI
Αφού ξεκινήσετε τα κοντέινερ, ανοίξτε ένα πρόγραμμα περιήγησης ιστού και μεταβείτε στη διεύθυνση http://localhost:3000 . Θα φορτώσει τη διεπαφή Open WebUI από τον τοπικό σας υπολογιστή. Κάντε κλικ στο κουμπί “Έναρξη” για να προχωρήσετε στη ρύθμιση του Open WebUI.
Δώστε το Όνομα , το Email και τον Κωδικό Πρόσβασης και, στη συνέχεια, κάντε κλικ στο κουμπί Δημιουργία Λογαριασμού Διαχειριστή για να δημιουργήσετε τον λογαριασμό Διαχειριστή σας.
Μόλις δημιουργηθεί ο λογαριασμός σας, μπορείτε να συνδεθείτε για να αποκτήσετε πρόσβαση στον Πίνακα Ελέγχου.
Εγκατάσταση μοντέλου AI μέσω Ollama
Το Open WebUI παρέχει μόνο τη διεπαφή. Πρέπει να εγκαταστήσετε τουλάχιστον ένα τοπικό μοντέλο τεχνητής νοημοσύνης για να λειτουργήσει. Ευτυχώς, το Open WebUI το κάνει εύκολο μέσω του Ollama. Μπορείτε να εγκαταστήσετε διαφορετικά μοντέλα, όπως llama3, mistral, gemma ή vicuna, ανάλογα με τις ανάγκες και τους πόρους του συστήματός σας.
Σε αυτό το παράδειγμα, εγκαθιστούμε το gemma:2b επειδή είναι πιο αποδοτικό ως προς τους πόρους σε σύγκριση με τα μεγαλύτερα μοντέλα. Για να το κάνετε αυτό, κάντε κλικ στο εικονίδιο του προφίλ σας και επιλέξτε την επιλογή Πίνακας διαχειριστή για να αποκτήσετε πρόσβαση στον πίνακα ελέγχου διαχείρισης.
Κάντε κλικ στο εικονίδιο λήψης στην επάνω δεξιά γωνία για να κατεβάσετε το μοντέλο.
Καθορίστε το όνομα του μοντέλου και κάντε κλικ στο κουμπί λήψης .
Μόλις ολοκληρωθεί με επιτυχία η λήψη του μοντέλου σας, θα ειδοποιηθείτε με το μήνυμα επιτυχίας, όπως φαίνεται παρακάτω:
Τώρα μπορείτε απλώς να επιλέξετε ένα μοντέλο από τη διεπαφή Open WebUI και να αρχίσετε να το χρησιμοποιείτε για τα ερωτήματά σας.
Πώς να χρησιμοποιήσετε το Open WebUI
Μόλις επιλέξετε ένα μοντέλο, μπορείτε να αρχίσετε να κάνετε ερωτήσεις . Για παράδειγμα, ρώτησα “Τι είναι το Docker Compose;” και το Open WebUI επέστρεψε την ακόλουθη απάντηση:
Κάντε κλικ στην επιλογή Νέα συνομιλία από το αριστερό μενού για να ξεκινήσετε μια νέα συνομιλία χωρίς να μεταφέρετε προηγούμενα μηνύματα ή περιεχόμενο. Αυτή η λειτουργία είναι χρήσιμη όταν θέλετε να συζητήσετε ένα εντελώς διαφορετικό θέμα χωρίς να επηρεαστείτε από προηγούμενες συνομιλίες.
Η ενότητα Αναζήτηση σάς επιτρέπει να βρείτε προηγούμενες συνομιλίες ή συγκεκριμένες λέξεις-κλειδιά στις αποθηκευμένες συνομιλίες σας. Για αυτόν τον σκοπό, μπορείτε να πληκτρολογήσετε μια λέξη ή φράση και φιλτράρει τα αποτελέσματα για να σας βοηθήσει να επανεξετάσετε γρήγορα παλιές απαντήσεις ή ερωτήσεις.
Μια άλλη χρήσιμη λειτουργία είναι οι Σημειώσεις . Είναι ένα ενσωματωμένο σημειωματάριο για την αποθήκευση κειμένου, ιδεών ή αναφορών. Λειτουργεί ξεχωριστά από τις συνομιλίες, επομένως το περιεχόμενό του δεν χρησιμοποιείται ως περιεχόμενο συνομιλίας, εκτός εάν το επικολλήσετε σε μια συνομιλία. Είναι ιδανικό για την αποθήκευση υπενθυμίσεων, αποσπασμάτων έρευνας ή συχνά χρησιμοποιούμενων προτροπών.
Ο χώρος εργασίας στο Open WebUI είναι ένας οργανωμένος χώρος για τη διαχείριση πολλαπλών έργων χωρίς να τα ανακατεύετε. Είναι χρήσιμος για προγραμματισμό, γραφή ή μακροπρόθεσμη εργασία. Το Open WebUI περιλαμβάνει τις ακόλουθες καρτέλες:
- Η καρτέλα Μοντέλα ανακαλύπτει και κατεβάζει μοντέλα ή προεπιλογές κοινότητας, εισάγει μοντέλα από εξωτερικές πηγές και διαμορφώνει τα εγκατεστημένα μοντέλα.
- Καρτέλα Γνώσεων – Περιηγηθείτε στα πακέτα γνώσεων της κοινότητας ή εισαγάγετε τα δικά σας αρχεία (PDF, κείμενο, CSV) για να τα χρησιμοποιήσει η Τεχνητή Νοημοσύνη κατά την απάντηση σε ερωτήσεις.
- Η καρτέλα “Προτροπές” ανακαλύπτει πρότυπα κοινότητας, εισάγει προτροπές και τις επαναχρησιμοποιεί σε όλες τις συνομιλίες.
- Η καρτέλα Εργαλεία βρίσκει ή εισάγει εργαλεία όπως εκτελέσεις κώδικα, scraper ή summarizers και τα χρησιμοποιεί απευθείας σε συνομιλίες για αυτοματοποίηση ή εξειδικευμένες εργασίες:
Οι συνομιλίες εμφανίζουν το ιστορικό συνομιλιών σας με την Τεχνητή Νοημοσύνη. Μπορείτε να ανοίξετε ξανά προηγούμενες συνομιλίες για να τις συνεχίσετε ή να διαγράψετε όσες δεν χρειάζεστε πλέον:
Στοιχεία ελέγχου συνομιλίας στο Open WebUI
Ο πίνακας “Στοιχεία ελέγχου συνομιλίας” σάς επιτρέπει να προσαρμόσετε τον τρόπο με τον οποίο ανταποκρίνεται η τεχνητή νοημοσύνη σε μια συνομιλία. Μπορείτε να ορίσετε μια προτροπή συστήματος για να καθοδηγήσει τον τόνο ή τη συμπεριφορά και να βελτιώσετε τις προηγμένες παραμέτρους, όπως τις απαντήσεις ροής συνομιλίας, το μέγεθος του μπλοκ, την κλήση συνάρτησης, την αρχική τιμή, την ακολουθία διακοπής, τη θερμοκρασία και την προσπάθεια συλλογισμού. Κάθε παράμετρος μπορεί να προσαρμοστεί ή να παραμείνει στην προεπιλογή της για τυπική συμπεριφορά.
Κάντε κλικ στο εικονίδιο προφίλ για να αποκτήσετε πρόσβαση στο μενού χρήστη, το οποίο περιλαμβάνει επιλογές για ρυθμίσεις, αρχειοθετημένες συνομιλίες, χώρο παιχνιδιού, πίνακα διαχείρισης, τεκμηρίωση, κυκλοφορίες, συντομεύσεις πληκτρολογίου, αποσύνδεση και προβολή ενεργών χρηστών.
Συμπέρασμα
Το αυτοφιλοξενούμενο Open WebUI απαιτεί κάποια αρχική ρύθμιση, αλλά μόλις διαμορφωθεί, προσφέρει πλήρη έλεγχο, ιδιωτικότητα και ευελιξία. Μπορείτε να επιλέξετε μοντέλα, να χρησιμοποιήσετε τα δικά σας δεδομένα και να προσαρμόσετε τη διεπαφή, όλα χωρίς να βασίζεστε σε διακομιστές τρίτων. Μόλις το μοντέλο εγκατασταθεί τοπικά, μπορείτε να το εκτελέσετε εντελώς εκτός σύνδεσης, όπως ακριβώς εκτελείτε το Gemini CLI AI Agent στο τερματικό σας.