Hvis sjældent er 9 ud af 10 gange, så er det sjældent ja. Det eneste jeg har set virke er noindex enten via metatag eller x-robots, alt andet virker stort set ikke efter hensigten, netop fordi som jeg skriver, brugen af robots.txt er totalt misforstået af rigtig mange. Nu kan almindelige mennesker jo ikke se at der står disallow i robots.txt filen, og de deler naturligvis indholdet på div. sociale medier, og de linker naturligvis også til sider de synes godt om. Yderligere serverskannere som ser hvilke domæner der findes på bestemte IP adresser, linker naturligvis også til de domæner der findes på en IP adresse. Så alt i alt er der masser af muligheder for at det kan ske. og på de fleste hjemmesider er det sådan at det ikke er hele sitet der disallowes, hvilket også naturligvis betyder at der er en risiko for intern linkbuilding til den side der ikke skal indekseres. Kort sagt, vil man ikke have at en URL skal indekseres, er det på ingen måde disallow/robots.txt man skal bruge, men derimod andre metoder. MVH Kim |
Er der nogen der har forstand og mod på at hjælpe mig med dette problem (mod betaling), er jeg meget interesseret i at få det løst.
Skriv her eller send en pm med jeres løsningsforslag og pris.....