Kubernetes Health Checks: Liveness-, Readiness- und Startup-Probes erklärt
Kubernetes-Health-Probes sind eine der am meisten missverstandenen Funktionen im Ökosystem.
Kubernetes-Probes verhindern, dass fehlerhafte Pods Traffic bedienen, aber falsch konfigurierte Probes verursachen mehr Ausfallzeiten als sie verhindern.
Die drei Probes und was sie tatsächlich tun
Liveness-Probe — Antwortet: Ist dieser Pod feststeckend? Bei Fehler tötet Kubernetes den Pod und startet ihn neu.
Readiness-Probe — Antwortet: Ist dieser Pod bereit, Traffic zu empfangen? Bei Fehler wird der Pod aus der Service-Endpunktliste entfernt.
Startup-Probe — Antwortet: Hat dieser Pod die Initialisierung abgeschlossen?
Die häufigste Fehlkonfiguration
Eine Liveness-Probe zu verwenden, die externe Abhängigkeiten prüft, ist ein Fehler. Liveness-Probes sollten nur die interne Gesundheit prüfen. Readiness-Probes sollten externe Abhängigkeiten prüfen.
Probe-Schwellenwerte konfigurieren
livenessProbe:
httpGet:
path: /healthz
port: 8080
initialDelaySeconds: 15
periodSeconds: 20
failureThreshold: 3
Externes Monitoring neben Probes
Kubernetes-Probes arbeiten innerhalb des Clusters. Kombinieren Sie sie mit externem Uptime-Monitoring auf AlertsDock.
Startup-Probes für langsame Anwendungen
startupProbe:
httpGet:
path: /healthz
port: 8080
failureThreshold: 30
periodSeconds: 10
Feature-Leitfaden
Uptime Monitoring
AlertsDock gives teams uptime monitoring for websites, APIs, TCP checks, DNS checks, SSL expiry, and fast alert routing without enterprise overhead.
Leitfaden lesenAlternativseite
UptimeRobot Alternative
Compare AlertsDock with UptimeRobot for teams that want uptime monitoring plus heartbeat monitoring, status pages, webhook inspection, and per-resource alert routing.
Vergleich ansehenMore articles
Frontend-Monitoring: Real User Monitoring vs Synthetic Testing
Backend-Uptime-Checks verpassen den Browser. Real User Monitoring zeigt, was echte Nutzer erleben.
API-Gateway-Monitoring: Sehen was passiert bevor Ihr Code läuft
Ihr API-Gateway verarbeitet jede Anfrage bevor sie Ihren Service erreicht. Die meisten Teams haben null Sichtbarkeit dort.
AI-Workloads überwachen: LLM-APIs, Inferenzkosten und Timeout-Handling
LLM-API-Aufrufe können 30 Sekunden dauern und $0,10 pro Stück kosten. Wenn sie fehlschlagen, tun sie es still.