Ja det er korrekt, i grunden kan man sige at det er en robots.txt med fejl i. en fejl som Google også godt kan tage fejl af. altså jeg mener man fortæller jo noget skal Disallow'es, men man undlader bare at fortælle hvad. Derfor er det altid bedst enten at slette indholdet af robots.txt eller skrive allow: / Man kan lige så godt have filen på serveren, da Google uanset om den er der eller ikke kigger efter den før de crawler en hjemmeside. MVH Kim |
Robots.txt på wordpressblog er = User-agent: * Disallow:

Kim Tetzlaff
🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig