Hej Når vi snakker duplicate content skabt pga. en masse filter/sorteringsfunktioner (parametre), hvad ville i så foreslå som løsning, jer der kender til problemstillingen, som den hurtigste/bedste løsning? Jeg har selv nogle forslag.. 1 - noindex, follow url'erne den er gal med. 2 - bruge canonical tagget og ignorere parametrene i GWT 3 - ændre 'navnene' på parametrene, gøre som nr. 2 på de nye parameter-sider, og smide de gamle url'er i en robots.txt 4 - gøre som nr. 3, men istedet for at smide url'erne i en robot.txt, give dem en 301 eller evt. en 404 5 - kombinere flere af ovenstående.. 6 - andet?
Det lyder til at Google selv ville anbefale nr. 2. Men alle løsninger burde kunne løse problemet, dog kan jeg se for og imod ved dem alle. Spørgsmålet er hvad der hurtigst muligt vil fjerne de dumme url'er fra SERP's og igen lade os ranke på den side vi førhen rankede på? |
2 - bruge canonical tagget og ignorere parametrene i GWT
Det lyder til at Google selv ville anbefale nr. 2. Men alle løsninger burde kunne løse problemet, dog kan jeg se for og imod ved dem alle.
Hvad mener du taler imod at løse problemet med et canonical tag?