Jeg forsøger at rydde lidt op i mine sites i forhold til hvad Google indekserer. Og så er jeg kommet i tvivl om hvad der egentlig er bedst, når man finder sider der ikke skal indekseres. F.eks. feeds. og et gammelt forum der ikke eksisterer mere. Er det bedst at lave 301-redirects eller bruge robots? Jeg gør sådan her: Robots.txt User-agent: * .htaccess redirectMatch 301 ^/feed/ http://domæne.dk redirectMatch 301 ^/forum/ http://domæne.dk Iøvrigt har jeg i Googles Webmastertools set, at google forgæves har ledt efter 500 url''er som aldrig har eksisteret. Hvad kan det skyldes? |
SEO: 301 redirect eller robots.txt?
Side 1 ud af 1 (5 indlæg)
- 1
|
|
Du behøver ikke bekymre dig så meget om sider Google crawler som ikke eksisterer, sålænge du er sikker på, at der returneres en korrekt 404 (og gerne med en pæn custom-404 error page til brugerne) |
http://gsitecrawler.com/articles/error-404-200.asp |
Side 1 ud af 1 (5 indlæg)