Alerting22 January 20255 min readEspañol

La fatiga de alertas es real — así es como combatirla

Tu ingeniero on-call ha recibido 47 alertas esta semana. 44 se resolvieron solas. 2 eran falsos positivos. 1 era real.

AlertingUptime MonitoringWebsite MonitoringApi MonitoringCron Job Monitoring
Alerting

Cuando todo es crítico, nada lo es. Aprende a ajustar tus umbrales de alerta y reducir el ruido.

Qué causa la fatiga de alertas

- Umbral demasiado sensible. Alertar en cualquier error HTTP individual genera ruido constante. - Sin alertas basadas en síntomas. CPU > 80% rara vez importa. - Duplicación de alertas. Tres monitores separados disparando para el mismo problema.

Ajuste de umbrales

Un buen umbral de alerta se establece a 3–4 desviaciones estándar de tu línea base normal.

Para el tiempo de respuesta: si tu p95 es normalmente 200ms, alertar a 500ms es apropiado.

Alertas basadas en síntomas vs causas

Basada en causas: CPU > 90% ✓ Basada en síntomas: Tasa de error API > 5%

Enrutamiento de alertas al canal correcto

Slack/Discord — SEV2 y menos. Email — resúmenes diarios. SMS — solo para SEV1 con rotación on-call explícita.

Revisión mensual de alertas

1. ¿Cuáles alertas se dispararon con más frecuencia? 2. ¿Qué porcentaje era accionable? 3. ¿Algún incidente real pasó desapercibido?

This article is available across the supported locale routes — use the language switcher above to change.

Guía de producto

Uptime Monitoring

AlertsDock gives teams uptime monitoring for websites, APIs, TCP checks, DNS checks, SSL expiry, and fast alert routing without enterprise overhead.

Leer guía

Página alternativa

Better Stack Alternative

Compare AlertsDock with Better Stack for teams that want a more focused monitoring product covering uptime, cron jobs, status pages, and webhooks.

Ver comparación
AD
AlertsDock Team
22 January 2025
Try AlertsDock free