Ja men det kræver lige præcis en hulens masse sammenligninger og der vil alligevel være nogle der falder ud som jeg skriver så derfor skal de jo alligevel tjekkes manuelt og spørgsmålet er om man kan lave det hele meget hurtigere end et par minutter per url alt i alt hvis man vi kontrollere det hele.
Hvis du insisterer på at kontrollere det hele manuelt for at være 100% sikker, ja så tager det naturligvis meget lang tid, hvis websitet er stort.
Men hvis du tager et repræsentativt udsnit af URL'erne og kontrollerer at de redirecter korrekt, så kan du også med stor sandsynlighed regne med, at kvaliteten af de øvrige redirects er meget høj
Derudover så er der jo også den type flytninger hvor det er mere end blot url til sef url men strukturelt og indholdsmæssigt også er opdateringer - de vil generere endnu flere udfaldne.
.
Det sker en sjælden gang, at det er nødvendigt at kundetilpasse et plugin til vores løsning, så vi kan lede efter eller ignorere helt specielle dele af indholdet på det gamle eller nye website, på den måde kan vi basere de automatiske redirects på så godt et datagrundlad som muligt.
Husk at jeg taler om situationer, hvor vi ikke har anden adgang til det gamle og det nye website, end at vi kan crawle al HTML'en med vores spider, på samme måde som søgemaskinerne gør.
Hvis man derimod har en leverandør der husker at registrere hvor data flyttes fra og til, så kan kvaliteten af redirects blive endnu højere, og så er udfald i forbindelse med strukturelt og indholdsmæssige opdateringer næsten lig nul. Eksempelvis blev 95% af indholdet på min-mave.dk flyttet på denne måde, fordi redpitt.com sørgede for at registrere de gamle og de nye URL'er helt fra en starten af.
/Grosen Friis