Arr jamen så var svaret der jo - men burde der så ikke stå noget i SEO-LEX 11 om hvad man gør når skaden er sket? |
Nikolaj Mogensen:
Nikolaj Mogensen:Okay så man skal altså uploade robotsfilen inden man begynde at fjere de sidder der ikke skal være indekserede?
Ja robots.txt skal være klar på serveren før du påbegnder at fjerne sider via webmaster tools. og den skal indholde alle de sider som du vil fjerne, samt nyligt oprettede sider som ikke skal crawles.
Ja det er meget normalt med flere farver, størrelser etc. Men problemet er at hver farve kun skal have hver sin side/url hvis den reelt har en unik beskrivelse, og det er jo sjældent tilfældet. problemet er så der at rigtig mange shopløsninger inklusiv dandomain, håndterer det med farver, størrelser meget dårligt, og det kan man jo ikke gøre noget ved andet end at fortælle programmørerne at de burde gøre det anderledes.Nikolaj Mogensen:Synes egentlig ærlig talt det er noget farligt bøvl med det DCburde google altså kunne gøre noget smartere og bedre! Det er vel meget naturligt at et produkt kan have flere farver og at der derved skabes DC.
Men Google kan ikke gøre det så meget anderledes, da duplikeret indhold jo er duplikeret indhold om så det er på en shop eller på en anden hjemmeside. Det handler bare om at lave shoppen, hjemmesiden rigtigt fra starten af, så opstår problemet ikke.
MVH Kim