Jeg har ikke nogen deciderede hjemmesider jeg har fundet hvor der er indekseret sider som fx ovenstående, men det er nu heller ikke ligefrem noget jeg har kigget efter. Jeg har det lidt sådan, er der en risiko, sker det også. Man kan kalde det lidt "Murphys lov: Hvis noget kan gå galt, vil det gå galt" Og derfor er det bedst at sikre mod at det ikke sker.
Man kan sige i begge tilfælde ovenfor skal der ikke andet end en tastefejl til. eller hvis en ondsindet bruger, fx en konkurrent gerne vil skabe duplicate content, skal der jo ikke andet end et eller flere links til for at Google så også indekserer siden.
Er grunden til at du ikke kan finde nogle eksempler på, at disse fiktive links er indekseret i Google, at de netop tager højde for dette?
Jeg mener, hvis dette ikke var tilfældet ville f.eks. dr.dk og whitehouse.gov jo været bombet tilbage til stenalderen (eller det ville i de mindste være muligt at finde et par sider der var indekseret fra disse sites på Google).
Jeg kan godt forstå din pointe. Men den er vel mere teoretisk end praktisk.
Er grunden til at du ikke kan finde nogle eksempler på, at disse fiktive links er indekseret i Google, at de netop tager højde for dette?
Jeg gad da godt høre din forklaring på hvordan Google skulle kunne tage højde for det hvis ikke hjemmesiden eller serveren fortæller Google at siden ikke er på den URL?
Og som jeg sagde har jeg ikke ligefrem kigget efter eksempler på det.
Det har Jo selvfølgelig en del teoretisk, men det er lige så meget teori som det er praksis. for hvis du tror at Google tager højde for det, ja så vil du opdage at det ikke er tilfældet.
Jeg kan fortælle dig at jeg selv lavede en test på min hjemmeside, hvor jeg ændrede alle urls fra med store og små, til kun at have små. Som en del af testen lod jeg være med at gøre noget som helst, det vil sige jeg sendte ikke nogen header, jeg redirectede ikke, ja jeg gjorde ikke noget. Og efter lidt tid havde Google indekseret alle de nye sider og jeg havde nu identiske sider på forskellige URL adresser. Jeg lod den så være i et stykke tid. Og Google tog ikke hensyn til det som du jo mener. Det var først da jeg sendte en header eller redirectede at Google fjernede disse URL's.
Men vi kan da godt iværksætte en lille test af det på din hjemmeside hvis du lyster og mener at Google tager højde for det?
Gav det dig en dårligere ranking i Google at være indekseret 2 gang på den 'samme' fiktive URL?
Ja det gav mig dårligere ranking, som jeg vidst også beskriver eller i hvert fald har beskrevet andre steder. Nogen sider røg helt fra side 1 til 10 andre mindre og andre mere.
Kasper Skov-Nielsen:
Hvilke websider, som ikke er lavet i dit CMS, benytter sig af den teknik du beskriver?
Nja, jeg spurgte hvis ikke præcist nok. Jeg mente: Den teknik du benytter i dit CMS; hvilke andre sites - som ikke er bygget i dit CMS - benytter din teknik.
Nja, jeg spurgte hvis ikke præcist nok. Jeg mente: Den teknik du benytter i dit CMS; hvilke andre sites - som ikke er bygget i dit CMS - benytter din teknik.
Den anden kender jeg jo godt ;)
Vh Kasper
Mener du teknik til URL omskrivning eller mener du teknik til at sikre mod DC?
for jeg bruger nemlig samme (htaccess) teknik som wp og drupal (som overordnet set gør det samme) når vi snakker URL omskrivning.
begge URL omskrivnings metoderne ovenfor gør jo i grunden det at den tjekker på om filen eller mappen findes, gør den ikke det ja så skal der tages fat i index.php. Eksakt det samme gør jeg i mine løsninger, forskellen er bare at mit system tager hånd om de DC huller som findes.
Jeg kender ikke andre systemer og da slet ikke open source som beskytter mod DC på samme måde som min løsning gør det.
Jeg mener din beskyttelse mod DC : ala ?hej=tester lige
Jeg undrer mig nu alligevel lidt....
Hvis det skulle have betydning - bare det mindste, ville jeg forvente at f.eks. SEO guru'erne http://www.demib.dk og http://thomas-rosenstand.dk havde implementeret dette.