one har vist aldrig været kendt for at performe specielt godt...
Jeg tog lige en sammenligning mellem de sites jeg har sitemaps på og så det billede der blev linket til her i tråden på "tid brugt på at downloade en side"; - Jeg har én peak på over 1500 millisekunder og resten ligger ret jævnt på 450-500. - På screenshotet herfra er der i hvert fald 4-5 peaks over 1500 og selv der specielt sidst i perioden er en pæn lige linie er der generelt meget store udsving af download-tid og desværre kun i negativ retning.
Så noget kunne tyde på at Googlebot tager højde for når en side ser belastet ud.
Jeg tror ikke det i sig selv er de peeks på 1500ms der gør forskellen.
Jeg har også mange peeks på over 1500ms (helt op til 2200ms) uden at det har haft nogen betydning for hvordan der bliver crawlet (crawles i snit over 3500 sider dagligt).
Kunne måske godt forestille mig at det har noget at gøre med antallet af domæner på en enkelt ip hvor de helst ikke vil overbelaste. Hvis du kører på en shared server med mange andre sites som man gør hos One, så er det muligt at de rykker dig ned.
Men igen - du siger at dine sider er indexeret og med antallet af sider du har, så tvivler jeg på at det har en pratisk betydning.
Chat InformationVent venligst til en supporter svarer. Chat InformationDu chatter nu med 'Christian C' Christian C: Hej. Velkommen til One.com chatsupport. Hvad kan jeg hjælpe med? Dig: På Google webmaster tools har jeg fået følgende besked: "Vi har opdaget, at Googlebot begrænser den hastighed, hvormed den gennemgår dit websted. Dette gør den for at sikre sig, at den ikke opbruger for mange af serverens ressourcer. Vi foreslår, at du vælger Hurtigere nedenfor, hvis din server kan håndtere yderligere Googlebot-traffik." Dig: ...... det ser ikke godt ud Christian C: Du må godt vælge hurtigere hvis du vil. Dig: har jeg gjort - men er jeres server overfyldt? Christian C: hvad mener du? Jeg tror du misforstår. Du kan vælge hurtigere sådan at Googlebot gennemgår din side oftere og dermed er den emre opdateret i Google. Dig: Der står: "Vi har opdaget, at Googlebot begrænser den hastighed, hvormed den gennemgår dit websted. Dette gør den for at sikre sig, at den ikke opbruger for mange af serverens ressourcer" Christian C: ja, det har jeg forstået. Christian C: Du kan godt vælge hurtigere. Der er intet galt og det betyder bare at din side vil blive gennemfgået oftere og hurtigere. Dig: Så må jeg spørge mere direkte er serverens ressourcer ikke i top (langsom, overfyldt e.lign.) siden Google kommer med denne besked Christian C: igen, du misforstår. Googlebot er langsom fordi den ikke _vil_ belaste din server. Derfor spørger den om det er okay, at den sætter hatigheden op. Dig: hvorfor er den bange for at den kan belastes Christian C: Den er ikke bange. Den er flink. Den vil sikre sig at du har det fint med at den belaster din server mere end den gør nu.og derfor spørger den om du vil sætte hastigheden op. Dig: det synes jeg ikke helt passer med graferne jeg kan se på samme side - flere peaks på 1500 milisekunder for at downloade en side ..... det er ikke prangende Christian C: hvad mener du? Dig: hastighed eller mangel på samme på serveren Christian C: det giver heller ikke mening. Det er ikke serveren, der er langsom, det er Googlebot der er langsom. Den robot der kigger dine sider igennem Dig: ja langsom til at hente data fra jeres server! Christian C: Nej! Den gennemgår siderne langsomt så den ikke belaster siderne. Dig: hvad mener du med - belaste siderne Christian C: undskyld, belaster serveren. Gør at den evt. bliver langsom for andre. Dig: OK igen - betyder det at serveren er overfyldt eller bare en langsom server Christian C: igen, nej. det gør det ikke. Det betyder at googlebot er langsom fordi den ikke vil belaste serveren. Googlebot måler intet, den konstaterer bare at den er langsom og giver dig muligheden for at gøre den hurtigere. Dig: måler den ikke noget? Den viser da rigtig mange målinger Christian C: ja, men den måler ikke om serveren er langsom eller ej. Og lige nu snakker jeg kun om hastigheden for googlebot. Den konstaterer bare at Googlebot gennemgår dine sider langsomt. Dig: så du siger altså at den hastighed Google måler på at downloade min sider er dens egen "dagsform" og ikke har noget med serveren at gøre Christian C: ikke på at downloade dine sider, men på at gennemgå dine sider. Men ellers ja. Dig: OK - vi har en debat kørende på Amino lige nu angående dette emne. Må jeg bringe vores lille chat? Christian C: Du skal være velkommen. Dig: Tak skal du ha´ ..... det var ikke for at være ubehøvlet - jeg forstår det bare ikke.
Jeg tror heller ikke at det er serveren der er specielt langsom - selvom du har nogle enkelte 1500ms svartider. Det kan skyldes så meget. Det er snarere andre parametre der gør at den ikke standard ønsker at crawle hurtigere.
Men ved at sætte til "hurtigere" burde det være løst - men giv det lige en chance for at virke.
Morten skriver sådan nogle ord som "professionelt webhotel" og "stabilt" i sit første indlæg. Det er ikke just ord, der matcher Servage's produkt.
Servage har et fint produkt til hjemmesider, hvor oppetid og hastighed ikke spiller den store rolle, men det er altså ikke et stabilt webhotel af professionel standard, som man bør basere sin virksomhed på.
Desuden virker det ved gennemlæsning af tråden som, at det formodede problem ikke skyldtes one.com, hvor Morten stadig har sin hjemmeside hostet, så vidt jeg kan se.