Er der et klogt hoved som kan fortælle de væsentligste forskelle på disse to sider på Saxo.com. Grunden til at jeg spørger er, at begge sider indeholder en liste med Stieg Larsson bøger, men den ene side er indekseret på Google og ranker fint, mens den anden slet ikke findes på Google. Skyldes det at den ene side er fundet via en søgning på Stieg Larsson på Saxo.com og dette søgeresultat ikke er gemt på sitet?
Har Saxo.com bevidst sørget for at den ene side ikke bliver crawlet pga. duplicate content?
Tak for svaret, men hvis nu man har sådan en søgeside, som samler indhold fra diverse andre sider, vil det så være muligt at gemme søgeresultaterne så Google kan finde siden ved en søgning på Stieg Larsson?
Eller er det eneste rigtige, at gøre som saxo.com har gjort, altså at have en fast side med alle bøgerne?
Saxo har i deres robots.txt defineret at google ikke skal crawle og indexere dele af deres website, deriblandt /search/search.aspx Og så holder robotten bare tidligt fyraften :)
Saxo gør det for at undgå duplicate content... Altså for at der ikke pludseligt er 2 sider med det samme indhold...
Selv om du linker til "din" side, vil google ikke crawle den...
Det er iøvrigt ikke en fast side, hvis forfatteren skriver endnu en bog,(og saxo begynder at sælge den) ville den automatisk komme med der... Den er dynamisk genereret af deres cms system, ved hjælp af indholdet i deres database...
Teoretisk jo, men så ville siderne på de enkelte forfattere først fremkomme når der var en der havde søgt efter dem... og hvordan skulle google så finde dem? De overvåger jo ikke alt hvad alle gør, de følger links, og du foreslår vel ikke at saxo laver en side med links til hver enkelt forfatters søgeresultat? For ikke at sige hvad så mad alle fejlsøgningerne hvor folk staver forkert? Det er ikke muligt at styre det... på den anden måde bestemmer saxo præcist hvad google skal finde, og det er altid bedre end omvendt...
Hvis de gjorde som du skriver ville jeg kunne gå ind på saxo's side og søge på børneporno eller noget andet ulækkert og anstødeligt, og der ville så komme en side på deres domæne med det ord i overskriften og som sidens titel, og bingo så var saxo forbundet med den slags grimme sager...
Kan du se problemet? Det er dumt ikke at lukke af...
Ja, det kan jeg godt se. Men så kunne man vel evt. udvælge sider med forfatternavne som er stavet rigtig og lade Google crawle dem, og lukke af for resten. Hvis det altså er teknisk muligt.
Ja, det kan jeg godt se. Men så kunne man vel evt. udvælge sider med forfatternavne som er stavet rigtig og lade Google crawle dem, og lukke af for resten. Hvis det altså er teknisk muligt.
Du mener altså at de skal ansætte en til at sidde og kigge søgeresultaterne igennem, sortere i dem, og så derefter starte med at bygge links til siderne, men først efter at nogen har søgt på forfatternavnet?
Kontra det at de opretter siderne på forhånd, 100% kan styre hvilke sider der oprettes, og fuldtud automatisk... derefter kan skaffe links til dem, så de ranker godt allerede inden nogen har søgt på saxo.com, således at når nogen søger i google ligger de allerede fint placeret?
Så tror jeg der kunne gå en del tid inden de begyndte at sælge ret mange bøger... Jeg er ked af at sige det, men din model holder altså ikke, hvis de skal køre en forretning på det, alt for meget er overladt til tilfældighederne...