2 KiB
2 KiB
Blinko
📝 Self-hosted note-taking app with AI integration (Ollama)
Deploy in Komodo
Pfad: stacks/blinko/
Secrets
Erstelle eine .env Datei im Stack-Verzeichnis:
# NextAuth
NEXTAUTH_SECRET=<openssl rand -base64 48>
# PostgreSQL
POSTGRES_PASSWORD=<secure-password>
POSTGRES_USER=postgres
POSTGRES_DB=postgres
# Domain (optional, default: https://blink.nocci.it)
NEXTAUTH_URL=https://blink.your-domain.com
NEXT_PUBLIC_BASE_URL=https://blink.your-domain.com
Services
| Service | Beschreibung | Ports |
|---|---|---|
blinko-website |
Next.js Web-UI | 1110 → 1111 |
postgres |
PostgreSQL Datenbank | 5435 → 5432 (intern empfohlen) |
ollama |
AI-Modell-Server | Intern (kein Port exponiert) |
ollama-proxy |
Caddy Reverse Proxy für Ollama | - |
ollama-models |
Init-Container – pullt embeddinggemma automatisch |
Einmalig, dann beendet |
Ports
| Externer Port | Service | Beschreibung |
|---|---|---|
| 1110 | blinko-website | Web UI |
| 5435 | postgres | Datenbank (nur intern empfohlen!) |
Caddy
Für externen Zugriff auf Blinko:
blink.example.com {
reverse_proxy localhost:1110
}
Ollama ist nur intern erreichbar (über ollama-proxy im Docker-Netzwerk).
Ollama Models
Automatisch (Post-Deploy)
Der Stack pullt automatisch embeddinggemma nach dem Start via ollama-models Service.
Weitere Modelle (Manuell)
Zusätzliche Modelle können manuell gepullt werden:
docker exec -it blinko-ollama ollama pull llama3.2
docker exec -it blinko-ollama ollama pull nomic-embed-text
Verfügbare Modelle prüfen
docker exec -it blinko-ollama ollama list
Volumes
blinko_data→/app/.blinko(Notizen & Daten)postgres_data→/var/lib/postgresql/data(Datenbank)ollama_data→/root/.ollama(AI Modelle)
Health Checks
- Blinko: HTTP Check auf Port 1111
- PostgreSQL:
pg_isreadyCheck - Ollama: Container läuft