Verificaciones de salud en Kubernetes: Probes de Liveness, Readiness y Startup explicadas
Los health probes de Kubernetes son una de las características más incomprendidas del ecosistema.
Los probes de Kubernetes evitan que pods defectuosos sirvan tráfico, pero los probes mal configurados causan más tiempo de inactividad del que previenen.
Los tres probes y lo que realmente hacen
Probe Liveness — Responde: ¿está este pod atascado?
Probe Readiness — Responde: ¿está este pod listo para recibir tráfico?
Probe Startup — Responde: ¿ha terminado este pod de inicializarse?
La configuración incorrecta más común
Usar un probe liveness que verifica dependencias externas es un error. Los probes liveness solo deben verificar la salud interna. Los probes readiness deben verificar dependencias externas.
Configurar umbrales de probe
livenessProbe:
httpGet:
path: /healthz
port: 8080
initialDelaySeconds: 15
failureThreshold: 3
Monitoreo externo junto a los probes
Combina los probes de Kubernetes con monitoreo de disponibilidad externo en AlertsDock.
Probes de inicio para aplicaciones lentas
startupProbe:
httpGet:
path: /healthz
port: 8080
failureThreshold: 30
periodSeconds: 10
Guía de producto
Uptime Monitoring
AlertsDock gives teams uptime monitoring for websites, APIs, TCP checks, DNS checks, SSL expiry, and fast alert routing without enterprise overhead.
Leer guíaPágina alternativa
UptimeRobot Alternative
Compare AlertsDock with UptimeRobot for teams that want uptime monitoring plus heartbeat monitoring, status pages, webhook inspection, and per-resource alert routing.
Ver comparaciónMore articles
Monitoreo frontend: Real User Monitoring vs pruebas sintéticas
Las verificaciones de disponibilidad del backend pierden el navegador. El monitoreo de usuarios reales muestra lo que los usuarios reales experimentan.
Monitoreo de API Gateway: Viendo lo que sucede antes de que tu código se ejecute
Tu API gateway procesa cada solicitud antes de que llegue a tu servicio. La mayoría de equipos no tienen visibilidad de lo que sucede ahí.
Monitoreando cargas de trabajo de IA: APIs LLM, costos de inferencia y manejo de timeouts
Las llamadas a APIs LLM pueden tomar 30 segundos y costar $0.10 cada una. Cuando fallan, lo hacen silenciosamente.