Min side inde holder en masse data, som næsten dagligt bliver opdateret. Men jeg forestiller mig ikke at der specielt tit bliver tilføjet ny undersider, så siden har en forholdsvis statisk site map.
Jeg læste et sted at det er site map, der anvendes til at vurdere om siden i søgemaskinernes øjne er opdateret, og ikke så meget om indholdet er ændret lidt.
Hvordan forholder det sig? Hvilke taktikker kan jeg evt anvende til at få oftere besøg af søgemaskinerne, sidste besøg var 11 juni ifølge Google Webmaster tools.
For at få søgemaskinerne til at besøge dine sider oftere skal du opdatere indholdet tit (ændre + tilføje nyt indhold). Et sitemap derimod hjælper med til at give søgemaskinerne nemmere adgang til alle undersiderne.
Opdatér ofte er den bedste metode (ganske som du gør). Det, og så at få flere links til din side, da sider med højere pagerank bliver crawlet oftere end sidere med lavere pagerank.
Jeg har oplevet forskellen på sider, hvor jeg slet ikke havde et sitemap, så jeg kan i hvert fald bekræfte, at hyppige opdateringer/tilføjelser er populære hos Googlebot, uanset om man har sitemap eller ej.
Det, og så at få flere links til din side, da sider med højere pagerank bliver crawlet oftere end sidere med lavere pagerank.
... ehm, nej :)
Sider der bliver opdateret ofte bliver også crawlet oftere end sider, der ikke opdateres så ofte. Det er jo egentlig også en gangske logisk måde at skrue systemet sammen på... hvis man ikke finder noget nyt begynder man at øge intervallet mellem hvor ofte man besøger siden - det samme gør Google. Jeg har set sider med en PR2 der ikke var blevet crawlet i 2 måneder og sider med PR0 der bliver besøgt dagligt.
Må vi se linket til den nye side? Hvis det er små ændringer, er det så relevant for Google at få opdateringerne med? Hvis det eksempelvis er en liste over fodboldkampe som løbende bliver opdateret med målscore som de afvikles, er det jo ret ligegyldigt om Google kender til sitet uden målscorer eller med seneste målscore.
Hver gang vi indsamler data vil det medføre nogle ændringer på disse gennemsnits tal. Forventligt ude på decimalen.
Grunden til at jeg spørger er at vi selvfølgelig gerne vil have besøg af Google og andre så ofte som muligt. Hvis konsensus er at hovedsiden som strukturmæssigt ikke inviterer til dette, skal vi af andre veje se om vi kan muliggøre dette.
Grunden til at jeg spørger er at vi selvfølgelig gerne vil have besøg af Google og andre så ofte som muligt.
Jeg forstår virkelig ikke hvorfor... folk kigger jo ikke i Google Cach men besøger din hjemmeside. Du forventer vel ikke at få hits på søgninger som "Betsson - Sportsbook 8.19"?
Du burde lave nogle bedre anmeldelser, dem som jeg klikket på havde den samme tekst. Så med en god anmeldelse om hver bookmaker og bygget op om de søgeord som du gerne vil ligge højt burde hjælpe dig med at få flere besøgende.
Men hvad tolker Google som en opdateret side? Er det at indholdet er ændret siden sidst (i mit tilfælde at dataen er opdateret) eller er det at der er tilføljet nye sider?
Sider der bliver opdateret ofte bliver også crawlet oftere end sider, der ikke opdateres så ofte. Det er jo egentlig også en gangske logisk måde at skrue systemet sammen på... hvis man ikke finder noget nyt begynder man at øge intervallet mellem hvor ofte man besøger siden - det samme gør Google. Jeg har set sider med en PR2 der ikke var blevet crawlet i 2 måneder og sider med PR0 der bliver besøgt dagligt.
Hej Tommy,
Vi er enige om, at opdatering af indhold er i særklasse den vigtigste parameter for frekvensen af besøg fra Googlebot, men for at citere Google selv: "Google's spiders regularly crawl the web to rebuild our index. Crawls
are based on many factors such asPageRank, links to a page, and
crawling constraints such as the number of parameters in a URL. Any
number of factors can affect the crawl frequency of individual sites."