Vérifications de santé Kubernetes : Probes Liveness, Readiness et Startup expliquées
Les probes de santé Kubernetes sont l'une des fonctionnalités les plus mal comprises dans l'écosystème.
Les probes Kubernetes empêchent les mauvais pods de servir du trafic, mais des probes mal configurées causent plus de temps d'arrêt qu'elles n'en préviennent.
Les trois probes et ce qu'elles font réellement
Probe Liveness — Répond : ce pod est-il bloqué ?
Probe Readiness — Répond : ce pod est-il prêt à recevoir du trafic ?
Probe Startup — Répond : ce pod a-t-il terminé son initialisation ?
La mauvaise configuration la plus courante
Utiliser une probe liveness qui vérifie des dépendances externes est une erreur. Les probes liveness ne doivent vérifier que la santé interne. Les probes readiness doivent vérifier les dépendances externes.
Configurer les seuils des probes
livenessProbe:
httpGet:
path: /healthz
port: 8080
initialDelaySeconds: 15
periodSeconds: 20
failureThreshold: 3
Monitoring externe en complément des probes
Associez les probes Kubernetes à un monitoring de disponibilité externe sur AlertsDock pour détecter les problèmes que Kubernetes ne peut pas voir.
Probes startup pour les applications lentes
startupProbe:
httpGet:
path: /healthz
port: 8080
failureThreshold: 30
periodSeconds: 10
Guide produit
Uptime Monitoring
AlertsDock gives teams uptime monitoring for websites, APIs, TCP checks, DNS checks, SSL expiry, and fast alert routing without enterprise overhead.
Lire le guidePage alternative
UptimeRobot Alternative
Compare AlertsDock with UptimeRobot for teams that want uptime monitoring plus heartbeat monitoring, status pages, webhook inspection, and per-resource alert routing.
Voir la comparaisonMore articles
Surveillance frontend : Real User Monitoring vs tests synthétiques
Les vérifications de disponibilité backend ratent le navigateur. Le monitoring des utilisateurs réels montre ce qu'ils expérimentent vraiment.
Surveillance API Gateway : Voir ce qui se passe avant l'exécution de votre code
Votre API gateway traite chaque requête avant qu'elle atteigne votre service. La plupart des équipes n'ont aucune visibilité sur ce qui s'y passe.
Surveillance des charges de travail IA : APIs LLM, coûts d'inférence et gestion des timeouts
Les appels API LLM peuvent prendre 30 secondes et coûter $0,10 chacun. Quand ils échouent, ils le font silencieusement.