# Blinko 📝 Self-hosted note-taking app with AI integration (Ollama) ## Deploy in Komodo **Pfad:** `stacks/blinko/` ## Secrets Erstelle eine `.env` Datei im Stack-Verzeichnis: ```bash # NextAuth NEXTAUTH_SECRET= # PostgreSQL POSTGRES_PASSWORD= POSTGRES_USER=postgres POSTGRES_DB=postgres # Domain (optional, default: https://blink.nocci.it) NEXTAUTH_URL=https://blink.your-domain.com NEXT_PUBLIC_BASE_URL=https://blink.your-domain.com ``` ## Services | Service | Beschreibung | Ports | |---------|--------------|-------| | `blinko-website` | Next.js Web-UI | 1110 → 1111 | | `postgres` | PostgreSQL Datenbank | 5435 → 5432 (intern empfohlen) | | `ollama` | AI-Modell-Server | Intern (kein Port exponiert) | | `ollama-proxy` | Caddy Reverse Proxy für Ollama | - | | `ollama-models` | **Init-Container** – pullt `embeddinggemma` automatisch | Einmalig, dann beendet | ## Ports | Externer Port | Service | Beschreibung | |---------------|---------|--------------| | 1110 | blinko-website | Web UI | | 5435 | postgres | Datenbank (nur intern empfohlen!) | ## Caddy Für externen Zugriff auf Blinko: ```caddyfile blink.example.com { reverse_proxy localhost:1110 } ``` Ollama ist nur intern erreichbar (über `ollama-proxy` im Docker-Netzwerk). ## Ollama Models ### Automatisch (Post-Deploy) Der Stack pullt automatisch `embeddinggemma` nach dem Start via `ollama-models` Service. ### Weitere Modelle (Manuell) Zusätzliche Modelle können manuell gepullt werden: ```bash docker exec -it blinko-ollama ollama pull llama3.2 docker exec -it blinko-ollama ollama pull nomic-embed-text ``` ### Verfügbare Modelle prüfen ```bash docker exec -it blinko-ollama ollama list ``` ## Volumes - `blinko_data` → `/app/.blinko` (Notizen & Daten) - `postgres_data` → `/var/lib/postgresql/data` (Datenbank) - `ollama_data` → `/root/.ollama` (AI Modelle) ## Health Checks - Blinko: HTTP Check auf Port 1111 - PostgreSQL: `pg_isready` Check - Ollama: Container läuft