Hej Aminoer Jeg læser flittigt i SEO 2.0 og synes selv jeg er ved at få godt fod under hvordan man optimerer sine sites mod google. Er dog støt ind i et problem jeg håber I vil diskutere med mig. Når man har en service som f.eks. jobindex.dk (netop sådan er service er jeg ved at udvikle – ja endnu en). Så løber man ind i nogle næsten umulige problemer med dublicate content, som jeg ikke helt kan se hvordan jeg skal komme ud af. I og med at jeg crawler andre sites og genbruger deres tekst, så vil det jo eksistere flere steder på nettet og der er en god sandsynlighed for at google ikke vil finde mig relevant. Hvad gør jeg?
Synes bare det er synd hvis jeg ikke kan drage fordel af alt den gode tekst jeg får leveret på et sølvfad. God aften, Peter Jensen |
PJJMAK:Synes bare det er synd hvis jeg ikke kan drage fordel af alt den gode tekst jeg får leveret på et sølvfad.
Problemet er, at de tekster du henter ind fra andre sites jo netop ikke er så "gode" - her mener jeg ikke så meget kvaliteten af teksterne, men både det at de er kopier af tekster fra andre sites, samt at de er midlertidige. Når jobopslaget udløber er de jo uaktuelle.
Jeg vil anbefale, at du i stedet for at fokusere på de enkelte annoncer, dels laver nogle gode sider med informative tekster (som du selv skriver/får skrevet) og dels laver nogle samlinger af jobannoncer indenfor de (keyword-) områder du vil fokusere på. Det sidste kan eventuelt kombineres med det første (altså unikke informations-tekster, krydret med de aktuelle annoncer).
På den måde får du nogle sider, som ikke er midlertidige og hvor indholdet ofte opdateres. Det er en strategi, som jeg har brugt på andre af den type sites, og det virker godt, er ret stabilt og bryder ikke med søgemaskinernes guidelines. Så sikkert og godt :)