For at sikre, at alle links er aktive, har jeg lavet et check på "validator.w3.org/checklink".
Jeg blev meget overrasket, da der i resultatet ved hvert link står: "The link was not checked due to robots exclusion rules. Check the link manually, and see also the link checker documentation on robots exclusion."
Jeg har ikke en robots.txt fil liggende i roden på websitet, medmindre det ligger et andet sted.
Kan nogen tjekke, om mit website (budgethuset.dk) i virkeligheden forhindrer f.eks. Google i at indeksere mit website?
Jeg har sikret at: I wordpress under Under "Indstillinger" i "Privatliv-indstillinger", står der, at sitet skal være synligt for alle.
Tak for svar. Jeg har tjekket igen og den står rigtigt.
betyder:
User-agent: * Disallow:
ikke, at alt skal indekseres, hvilket er meningen?
Det betyder Alt må crawles, indeksering er en helt anden snak.
Man kan ikke bruge robots.txt til at beskytte mod indeksering, men til at fortælle søgemaskiner og crawlere at der er områder de ikke må crawle. Det er 2 forskellige ting. URL's kan sagtens blive indekseret selvom de ikke må crawles.