1. Dashboard
  2. Articles
  3. Synology
  4. UGREEN
  5. Forum
    1. Unresolved Threads
  6. Code Schnipsel
  7. News-System
  • Login
  • Register
  • Search
Synology
  • Everywhere
  • Synology
  • Articles
  • Pages
  • Forum
  • News
  • News update
  • More Options
  1. IT-Wissen teilen, Probleme lösen, Erfahrungen austauschen
  2. Articles
  3. Synology

🧠 Ollama installieren – Eigene lokale KI auf Synology, Ugreen und Windows-PC

  • ITFrank
  • December 27, 2025 at 10:55 AM
  • 1,515 Views
  • 1 Comment
Ollama lakale Installation
Contents [hideshow]
  1. 🏁 Einleitung: Warum eine lokale KI?
  2. 🌟 Vorteile einer lokalen KI
  3. 🚀 Teil 1: Installation von Ollama unter Docker auf einer Synology NAS
    1. 🔧 Voraussetzungen:
    2. 🪜 Schritt-für-Schritt-Anleitung
      1. Verzeichnisse anlegen
      2. Projekt im Container Manager erstellen
      3. Docker Compose-Datei einfügen
      4. Projekt starten
      5. Funktion prüfen
  4. 💻 Teil 2: Installation auf einer Ugreen-NAS
    1. 🔧 Voraussetzungen:
    2. 🪜 Schritt-für-Schritt-Anleitung
      1. Ordnerstruktur anlegen
      2. Docker Compose-Projekt erstellen
      3. Bereitstellen & Starten
  5. 🖥️ Teil 3: Installation auf dem Windows-PC
    1. 🪜 Schritt-für-Schritt-Anleitung
      1. Download
      2. Installation
      3. Testen
    2. 🌐 Optional: Web-Oberfläche mit Page Assist
    3. 🧩 Tipp: Eigene Modelle und Wissen hinzufügen
  6. ✅ Fazit

🏁 Einleitung: Warum eine lokale KI?

Künstliche Intelligenz ist längst kein Zukunftsthema mehr – sie ist längst Teil unseres Alltags. Doch viele KI-Dienste, wie ChatGPT oder Copilot, laufen in der Cloud. Das bedeutet: Deine Daten werden über das Internet an fremde Server gesendet und dort verarbeitet. Für private Dokumente, Kundendaten oder sensible Informationen ist das ein No-Go.

Hier kommt Ollama ins Spiel. Mit Ollama kannst du eine lokale KI direkt auf deinem PC oder deiner NAS installieren und betreiben – komplett ohne Cloud, ohne API-Kosten und ohne Datenabfluss.


🌟 Vorteile einer lokalen KI

VorteilBeschreibung
🔒 Datenschutz & SicherheitAlle Daten bleiben in deinem eigenen Netzwerk.
💰 KostenkontrolleKeine API- oder Abo-Gebühren.
⚙️ Offline nutzbarFunktioniert auch ohne Internetverbindung.
⚡ LeistungsstarkNutzung der lokalen CPU oder GPU für maximale Geschwindigkeit.
🧩 AnpassbarModelle und Trainingsdaten können individuell ausgewählt und erweitert werden.

Damit ist Ollama ideal für Selbstständige, kleine Unternehmen oder Privatanwender, die ihre KI selbst in der Hand behalten wollen.


🚀 Teil 1: Installation von Ollama unter Docker auf einer Synology NAS

🔧 Voraussetzungen:

  • Synology NAS mit Intel- oder AMD-Prozessor
  • DSM 7.2 oder höher
  • Container Manager (Nachfolger von Docker) installiert
  • Mindestens 8 GB RAM (besser 16 GB+)

External Content youtu.be
Content embedded from external sources will not be displayed without your consent.
Through the activation of external content, you agree that personal data may be transferred to third party platforms. We have provided more information on this in our privacy policy.

🪜 Schritt-für-Schritt-Anleitung

1. Verzeichnisse anlegen

Öffne die File Station und erstelle im docker-Verzeichnis zwei neue Ordner:

Code
docker/ollama
docker/openwebui

2. Projekt im Container Manager erstellen

  1. Öffne den Container Manager → Projekt erstellen
  2. Name: Ollama
  3. Projektverzeichnis: /volume1/docker/ollama
  4. Erstelle eine neue docker-compose.yaml Datei.

3. Docker Compose-Datei einfügen

Füge den folgenden Inhalt in die Compose-Datei ein (Pfad ggf. anpassen):

Code
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    volumes:
      - /volume1/docker/ollama:/root/.ollama
    ports:
      - "11434:11434"
    restart: unless-stopped

  openwebui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: openwebui
    depends_on:
      - ollama
    environment:
      - OLLAMA_API_BASE_URL=http://ollama:11434
    ports:
      - "3000:8080"
    volumes:
      - /volume1/docker/openwebui:/app/backend/data
    restart: unless-stopped 
Display More
Quote

💡 Tipp: Achte darauf, dass die Ports 11434 und 3000 nicht bereits durch andere Dienste belegt sind.

4. Projekt starten

  • Klicke auf Bereitstellen → Starten.
  • Die Images werden nun heruntergeladen (das kann einige Minuten dauern).
  • Nach erfolgreichem Start siehst du zwei laufende Container: ollama und openwebui.

5. Funktion prüfen

Rufe im Browser auf:

Code
http://[NAS-IP]:11434 

Wenn „Ollama is running“ angezeigt wird, läuft der Dienst korrekt.

Rufe danach auf:

Code
http://[NAS-IP]:3000 

→ Das ist deine Open Web UI Oberfläche.
Hier kannst du dich mit einem neuen Benutzer registrieren und direkt loslegen.


💻 Teil 2: Installation auf einer Ugreen-NAS

Die Vorgehensweise ist nahezu identisch zur Synology, lediglich die Pfade unterscheiden sich leicht.

🔧 Voraussetzungen:

  • Ugreen NAS mit Docker-Unterstützung
  • Aktuelle Firmware & Adminrechte
  • Docker (Container Manager) aktiviert

🪜 Schritt-für-Schritt-Anleitung

1. Ordnerstruktur anlegen

Erstelle folgende Verzeichnisse:

Code
/volume1/docker/ollama
/volume1/docker/openwebui

2. Docker Compose-Projekt erstellen

Öffne die Docker-Oberfläche → Projekte → Neues Projekt
Projektname: Ollama
Pfad: /volume1/docker/ollama

Füge die gleiche Docker-Compose-Datei wie bei der Synology ein (siehe oben).
Achte nur darauf, dass die Pfade zu deinen Volumes exakt stimmen.

3. Bereitstellen & Starten

Nach dem Start prüfe:

Code
http://[Ugreen-IP]:11434  →  „Ollama is running“
http://[Ugreen-IP]:3000   →  Open Web UI Oberfläche 

Damit ist Ollama auch auf deiner Ugreen NAS aktiv und kann über das Netzwerk genutzt werden.


🖥️ Teil 3: Installation auf dem Windows-PC

Auch auf einem Windows-PC kannst du Ollama nativ installieren – ganz ohne Docker.


🪜 Schritt-für-Schritt-Anleitung

1. Download

Gehe auf die offizielle Webseite:
👉 https://ollama.com/download

Lade die Windows-Version (Ollama Setup.exe) herunter.

2. Installation

  • Doppelklicke auf die heruntergeladene Datei
  • Bestätige die Sicherheitsabfrage
  • Folge dem Installationsassistenten
  • Optional: Microsoft Visual C++ Runtime wird automatisch installiert, falls erforderlich

Nach Abschluss startet Ollama automatisch.

3. Testen

Öffne die Eingabeaufforderung (CMD) und gib ein:

Code
ollama run llama3

Das Modell wird heruntergeladen und du kannst sofort erste Prompts eingeben.


🌐 Optional: Web-Oberfläche mit Page Assist

Wenn du eine grafische Oberfläche bevorzugst:

  • Installiere die Chrome-Erweiterung „Page Assist“ Download
  • Verbinde sie mit http://localhost:11434
  • Du erhältst ein Chatfenster ähnlich wie ChatGPT – nur eben lokal 🚀

🧩 Tipp: Eigene Modelle und Wissen hinzufügen

Du kannst eigene Sprachmodelle oder Trainingsdaten lokal einbinden:

Code
ollama pull mistral
ollama pull llama3

Oder über Open Web UI Dateien (PDF, TXT, JSON) als Wissensbasis hochladen.
So entsteht deine eigene private KI, die komplett offline und DSGVO-konform arbeitet.


✅ Fazit

Mit Ollama kannst du deine eigene KI-Instanz direkt im lokalen Netzwerk betreiben – unabhängig, sicher und kostengünstig.
Ob auf der Synology NAS, einer Ugreen NAS oder direkt auf dem Windows-PC – der Aufbau ist unkompliziert, und die Möglichkeiten sind enorm.

Im nächsten Teil zeigen wir dir, wie du Ollama in die Synology AI Console integrierst, um deine lokale KI direkt aus DSM zu nutzen.

  • Synology
  • Docker
  • docker-compose
  • ollama
  • Synology - jede M2.SSD als Volume verwenden Previous Article 📄jede M.2-SSD als Volume statt Cache einrichten – auch ohne SSH

Related Articles

🛠️ Portainer – Repository für Templates wechseln

Portainer bringt nach der Installation ein Standard-Template mit, doch oft fehlen darin bekannte Container wie Uptime Kuma, AdGuard Home oder Nginx Proxy Manager.
Wer schnell auf eine größere Auswahl zugreifen möchte, kann das Standard-Repository durch eine alternative URL ersetzen – mit über 500 zusätzlichen Vorlagen, speziell für Homelabs, Synology-Nutzer oder Raspberry-Pi‑Umgebungen.
ITFrank
June 19, 2025 at 8:03 AM
0

Comments 1

lars_84
February 15, 2026 at 12:36 AM
  • Report Content

Hallo,

ich kann kein Modell laden, es zeigt mir nichts an.


Grüße

Categories

  1. Windows 1
  2. Allgemein 5
  3. Synology 9
  4. Allgemein 2
  5. UGREEN 4
  6. Reset Filter
  1. Online-Kurse
  2. 1:1 Coaching
  3. Privacy Policy
  4. Contact
  5. Legal Notice
Powered by WoltLab Suite™
IT-Wissen teilen, Probleme lösen, Erfahrungen austauschen in the WSC-Connect App on Google Play
IT-Wissen teilen, Probleme lösen, Erfahrungen austauschen in the WSC-Connect App on the App Store
Download