Jeg står med et større site som skal indexeres på google, jeg har læst på demib's blog i sin tid at man IKKE skulle tilmelde sit sitemap til google da google webmastertools var en beta og man risikerede at blive straffet.
nå men jeg startede med at smide en 4-5 links over til sitet og vente på google's crawler kom forbi, og det ser så ud til den HAR været forbi... men den har kun indekseret min forside...
nu er spørgsmålet så.. skal jeg vente på google's crawler ?? eller skal jeg bare tilmelde mit sitemap? det ser ikk ud til at google webmastertools er i beta mere så måske har de fået rettet de småfejl man kunne blive straffet for før i tiden ?
Det kan fortsat ikke anbefales at bruge XML-Sitemaps. Det er dog ikke fordi du bliver "straffet" - det har jeg aldrig sagt, men jeg har sagt at det i nogle tilfælde kan gøre indekseringen langsommer.
Men uanset om det så sker eller ej, hjælper XML-sitemaps dig ikke med det som bør være dit mål: At komme til at ranke på så mange af dine relevante keywords som muligt.
Hvis ikke Google kan finde frem til dine sider via links vil de nemlig IKKE ranke - uanset om du så propper siderne ned i halsen på dem via XML-sitemaps.
Så der er ikke så meget andet at gøre end at 1) Sikre, at der ikke er noget teknisk galt med dit website og 2) Sørge for at få nogle gode eksterne links
Så der er ikke så meget andet at gøre end at 1) Sikre, at der ikke er noget teknisk galt med dit website og 2) Sørge for at få nogle gode eksterne links
Okay, 1 spørgsmål.
når du siger teknisk galt vil du så mene at tomme meta titles og meta description er en teknisk fejl? eller burde siderne blive indexeret alligevel... jeg er nemlig ikk nået igennem alle produkter endnu.
de gode eksterne links vil jeg helst vente med til jeg har en go idé om hvilke ord der konverterer så jeg kan bruge dem som anker :)