Nu spørger du efter et gratis online værktøj, og da jeg ikke er nogen SEO ekspert som de ovenfor nævnte herrer, så tager jeg mine forbehold for dette værktøj, men måske nogen som kender det bedre end jeg og kan kommentere på det.
Nå, men ihvertfald kan du indtaste din adresse på siden og finde duplicate content, både på din egen side og fra andres sider.
Copyscape kan kun fortælle dig om sider der er indekseret i søgemaskinerne, og hvis du har problemer med duplicate content er det meget sandsynligt at en eller flere, ja måske endda alle siderne er fjernet fra Google.
Det du skal bruge er et analyseværktøj og en robot/spider. Først crawler du hele dit website med din robot/spider der indekserer alt indhold/urls mv. der gemmes i en database, hvorefter analyseværktøjet tager over og søger efter sider med problemer.
Mikkel siger at sådanne værktøjer ikke eksisterer, i hvert fald ikke offentligt tilgælgeligt - det overrasker mig, men er ret overbevist om Mikkel ville kende til det hvis det var...
Mvh Daniel Duvald - Speciale: Design & udvikling til Joomla CMS, Wordpress, Magento & Prestashop Kvalitets-webhosting
Der findes skam crawlere - båd kommercielle og open source projekter. De fleste er dog ret avancerede at bruge.
Men, selv det er ikke nok. For mange problemer med duplicate content finder man ikke hvis man kun crawler sit eget site, da der f.eks. kan være links udefra til ikke-omskrevne URLs (hvis man bruger URL-omskrivning og glemmer at lave redirects fra de gamle, u-omskrevne URLs, til de nye). Og det er bare et eksempel, på et alvorligt problem som en crawling af dit eget site ikke nødvendigvis vil afsløre. Andre problemer kunne være hvis du har mange domæner, der resolver til samme site - det vil en crawling af et domæne heller ikke fange.
Så desværre, man kommer altså ikke udenom en hel masse håndarbejde, hvis man for alvor skal fjerne alle (eller så godt som) problemer - og dermed risici :)
Der findes skam crawlere - båd kommercielle og open source projekter. De fleste er dog ret avancerede at bruge.
Men, selv det er ikke nok. For mange problemer med duplicate content finder man ikke hvis man kun crawler sit eget site, da der f.eks. kan være links udefra til ikke-omskrevne URLs (hvis man bruger URL-omskrivning og glemmer at lave redirects fra de gamle, u-omskrevne URLs, til de nye). Og det er bare et eksempel, på et alvorligt problem som en crawling af dit eget site ikke nødvendigvis vil afsløre. Andre problemer kunne være hvis du har mange domæner, der resolver til samme site - det vil en crawling af et domæne heller ikke fange.
Så desværre, man kommer altså ikke udenom en hel masse håndarbejde, hvis man for alvor skal fjerne alle (eller så godt som) problemer - og dermed risici :)
Links udefra kan man evt. medtage i crawlers opgave - f.eks. ved at registrere og besøge alle indgående links registreret i yahoo, google mv. Det vil ikke dække dig 100% ind, men du vil komme langt.
Mvh Daniel Duvald - Speciale: Design & udvikling til Joomla CMS, Wordpress, Magento & Prestashop Kvalitets-webhosting
Links udefra kan man evt. medtage i crawlers opgave - f.eks. ved at registrere og besøge alle indgående links registreret i yahoo, google mv. Det vil ikke dække dig 100% ind, men du vil komme langt.
Pointen her er at du ikke klarer det uden først at sætte dig ind i SEO selv ... der findes ingen point'n'click værktøjer, det er hårdt arbejde. Hele vejen :)