Et mere omfattende system er New Relic, det kan give dig en stor bunke informationer afhængig af din platform og sammenkøre dette med CPU, IO og Ram forbrug. Hvis du er på delt hosting giver det selvfølgelig ikke så meget mening.
Husk også at det kan være en enkelt flaskehals der trækker hele sitet ned, så prøv at bruge værktøjer der finder flaskehalsen fremfor blot at konstatere de er der ved at logge svartiden fra forsiden.
Både IIS, Apache og NGinx webservere kan logge svartiderne for enkelte sider direkte i dens native logfiler (typisk kalder "time-taken) herefter kan man lave udtræk på en anden maskine og se de reelle svartider for enkelte sider uden at tilføje ekstra belastning til jeres i forhold pressede website. Det kan give et godt indblik i:
- Hvornår siden er langsom
- Hvilke handlinger er der foretaget lige omkring/før siden bliver langsom
- Hvad er de langsomste sider
- Hvilke IP'ere kommer brugere fra der laver langsomme forespørgsler (Evt er det brugere der har meget data?)
Mit firma arbejder med optimeringer af web og enterprise systemer, og min erfaring siger mig at oftest er det at grave i logfiler den hurtigste måde at komme nærmere hvad der trækker systemet ned, fremfor blot at konstatere at det er langsomt i periode ved at overvåge svartiderne.