komodo-stacks/stacks/blinko/README.md

2 KiB
Raw Blame History

Blinko

📝 Self-hosted note-taking app with AI integration (Ollama)

Deploy in Komodo

Pfad: stacks/blinko/

Secrets

Erstelle eine .env Datei im Stack-Verzeichnis:

# NextAuth
NEXTAUTH_SECRET=<openssl rand -base64 48>

# PostgreSQL
POSTGRES_PASSWORD=<secure-password>
POSTGRES_USER=postgres
POSTGRES_DB=postgres

# Domain (optional, default: https://blink.nocci.it)
NEXTAUTH_URL=https://blink.your-domain.com
NEXT_PUBLIC_BASE_URL=https://blink.your-domain.com

Services

Service Beschreibung Ports
blinko-website Next.js Web-UI 1110 → 1111
postgres PostgreSQL Datenbank 5435 → 5432 (intern empfohlen)
ollama AI-Modell-Server Intern (kein Port exponiert)
ollama-proxy Caddy Reverse Proxy für Ollama -
ollama-models Init-Container pullt embeddinggemma automatisch Einmalig, dann beendet

Ports

Externer Port Service Beschreibung
1110 blinko-website Web UI
5435 postgres Datenbank (nur intern empfohlen!)

Caddy

Für externen Zugriff auf Blinko:

blink.example.com {
    reverse_proxy localhost:1110
}

Ollama ist nur intern erreichbar (über ollama-proxy im Docker-Netzwerk).

Ollama Models

Automatisch (Post-Deploy)

Der Stack pullt automatisch embeddinggemma nach dem Start via ollama-models Service.

Weitere Modelle (Manuell)

Zusätzliche Modelle können manuell gepullt werden:

docker exec -it blinko-ollama ollama pull llama3.2
docker exec -it blinko-ollama ollama pull nomic-embed-text

Verfügbare Modelle prüfen

docker exec -it blinko-ollama ollama list

Volumes

  • blinko_data/app/.blinko (Notizen & Daten)
  • postgres_data/var/lib/postgresql/data (Datenbank)
  • ollama_data/root/.ollama (AI Modelle)

Health Checks

  • Blinko: HTTP Check auf Port 1111
  • PostgreSQL: pg_isready Check
  • Ollama: Container läuft