Hvis man skal følge den logik, så skal man fjerne al redundans i et system for at forøge driftsikkerheden for systemet, og det er jo selvfølgelig ikke rigtigt. Jo flere komponenter i et system, jo større risiko er der for at en af komponenterne fejler. Men benyttes komponenterne til redundans i et system, vil det reducere driftsrisiko for det samlede system, hvis ellers de er implementeret af folk, som ved hvad de har med at gøre. Det er jo ligesom formålet med redundans.
Som sagt er mine checks gode nok til rapporten om ca. 99,9% oppetid hos min hosting hos UnoEuro.
Nej, selvfølgelig ikke, det siger sig selv.
Helt fair, sådan vil det jo være, vi har forskellige grænser for hvad der er ok og godt. Det vigtigste er vel at finde ud af hvor stor driftsrisiko og hvor meget gennemsnitlig nedetid man vil leve med. |
Hvis man skal følge den logik, så skal man fjerne al redundans i et system for at forøge driftsikkerheden for systemet, og det er jo selvfølgelig ikke rigtigt.
Delvist - hvis dine systemer er designet ud fra ikke at have redundans, så overlever man oftest, fordi så har du en anden plan for at komme online igen. Så faktisk kan redundans betyde lavere oppetid - netop grundet den række komponenter du smider i dit setup, som alle sammen kan skabe delvist eller totalt nedetid for dine systemer.
Tue Skaarup:Jo flere komponenter i et system, jo større risiko er der for at en af komponenterne fejler. Men benyttes komponenterne til redundans i et system, vil det reducere driftsrisiko for det samlede system, hvis ellers de er implementeret af folk, som ved hvad de har med at gøre. Det er jo ligesom formålet med redundans.
Du kan blive ansat i datacentre verdenen over hvis du ønsker :-) Folk med datacenter redundans har endnu ikke kunne løse problemet.
Har du set videoen som jeg linkede til? :-)
Implementere du flere komponenter, øger du din risiko for at komponenter står af, desværre kan disse komponenter også skabe nedetid, fordi de kan fejle på sådan en måde at de trigger andre systemer til at gøre noget - hvilket kan resultere i nedetid.
Registrere dine sensorer at der er røg eller brand, kan det resultere i dine HVACs lukker ned for at beskytte så godt den kan, desværre betyder det at det kan resultere i dine datahaller bliver varme, hvilket kan skade andre komponenter.
Man prøver at løse et problem omkring oppetid i datacentre, der er mange faktorer man skal tage hånd om, nogle af disse går imod hinanden, hvilket resultere i man skal finde en optimal måde at bygge sine systemer på, for at sikre mod de mest gængse ting, uden at smide milliarder efter dette, fordi kunder gider ikke betale for hvad ting faktisk koster.
Du ved ikke hvor mange gange et datacenter eller hosting udbyder forhindre problemer, det er langt langt oftere end du tror. Så når de endelig går ned, så skal man være forståelig (især hvis man betaler pennies), og håbe på de har en disaster recovery plan som faktisk virker, så man kommer hurtigt online igen.
Tue Skaarup:Som sagt er mine checks gode nok til rapporten om ca. 99,9% oppetid hos min hosting hos UnoEuro.
Godt nok til din personlige rapport, korrekt - taler du om oppetiden offentligt, så skal du være meget meget sikker på at de data du poster faktisk er grundet din hosting udbyder, og ikke din side der bare har været sløv, under angreb eller kaldt eksterne services eller din monitoring der faktisk har falske positiver (Som Pingdom og alle de andre har).
Jeg ved godt du vil have ret Tue - og det er helt fint - men husk at du skal tænke over det tekniske, hvad der er muligt til det som kunder vil betale. (De betaler sjældent for hvad ting faktisk koster), og i kunder mener jeg hele vejen op til core netværk verdenen over.
Man skal nærmest have en PHD i elektricitet, etc etc, for at forstå hvad limiteringer der er i et datacenter hvad angår redundans :-) Men realistisk set gør alle datacentre hvad de kan for at ting ikke går ned. Generelt fordi de ikke gider døje med nedetid, men nok mest for at slippe for bitchy kunder som er utrolig krævende :-)