Før de sætter et site live for kunden udvikler de på et subdomæne fx. http://supershop.domain.dk
problemer er bare at google opdager disse subdomæner og indexerer dem med det samme. De vil de meget gerne være foruden således google ikke opdager disse.
Hvordan gør vi det smartest for dem? Skal vi ændre på noget i deres IIS opsætning ( de kører .net ) eller skal man lave noget meta content som kan lukke af for dette?
Evt. hvad gør i for at løse dette for jeres kunder?
Altså hvis jeg laver noget via. subdomæner, som jeg gør ret tit, så plejer jeg at ip sikre dem, så ledes at jeg kun har adgang til at se siden. Ved ikke om det kunne være en løsning i jeres tilfælde.
Både IP-lås og passwordbeskyttelse kan være et problem - eller irritationsmoment - hvis man bruger testdomænet til fremvisning for kunden.Det er muligt at indsætte en header i serverindstillingerne, der gør det samme som meta noindex, nofollow.
På Apache kan man evt. smide dette i .htaccess :
Header set X-Robots-Tag "NOINDEX, FOLLOW"
Jeg har ikke kendskab til IIS, men er sikker på det samme gør sig gældende, blot med en anden syntax.
Dette er desværre et meget udbredt problem - og det er virkelig noget lort, som I bør få løst! For det der mange gange sker er, at test-domænets indeksering forhindrer at det "rigtige" domæne, når det kommer på, slet ikke kan indekseres, da søgemaskinerne jo i forvejen kender indholdet fra test-domænet.
Den eneste sikre måde at løse det på er ved at password beskytte websitet - eller låse det til bestemte IPs. Det synes jeg i alle fald at man bør gøre, da der kan være mange andre grunde til at hele verden ikke skal kunne se noget halv-færdigt.
Det er ikke muligt at forhindre søgemaskinerne i at opdage testdomænet og det er heller ikke muligt at forhindre dem I at gemme links til sitet i deres indeks (over halvdelen af de links der er i Googles indeks er til sider de aldrig har besøgt), men hvis I passwordbeskytter sitet, så kan de ikke læse indholdet og indeksere det, og dermed opstår der ikke problemer med identisk indhold og dermed risiko for at det rigtige domæne ikke kan indekseres senere.
Mange tak for jeres svar, som flere er jer er inde på må det være korrekt at password beskytte sitet samt lukke op for bestemt IP adresser der skal bruges til sitet.
Jeg takker mange gange for jeres svar og løsningsmuligheder.
Jo, men der er fare for, at man ved et uheld uploader robots.txt med noindex til produktionsserveren - og så har vi balladen!
Hvis man kan leve med at bede sin kunde om deres IP-adresse, og banke et password ind i hovedet på dem, så er det en fin løsning - ellers holder jeg nu stadig på at en global header på developmentserveren er vejen frem ;-)