Jeg har haft blokeret min side i 2 dage med robots.txt den er helt ny, nu har Google webmaster lavet gennemgangs fejl 2 gange hvor 1 af gangene den har været sat til allow som den også er nu?
Hvor lang tid går der før den fanger den igen, eller lader mit website komme frem?
Det er ikke så længe siden, at jeg selv lavede sådan en "bøf", hvor jeg blokerede for hele hjemmesiden i 1-2 dage. Efter et par dage, havde Google genindekseret, og alt var tilbage til normalen - også rankings.
Hvor lang tid der går, afhænger af, hvor ofte Googlebot kommer forbi og genindekserer - hvis hjemmesiden er ny, og endnu ikke har opbygget en værdi hos Google, så kan det nok tage længere tid end et par dage.
Men så længe, at du ikke på ny forhindrer Google i at få adgang til din hjemmeside, så vil din hjemmeside blive genindekseret i løbet af kort tid.
The following block of code contains some errors. You forgot to add a Disallow line in this block of code. You MUST insert at least one Disallow command. Please, remove all the reported errors and check again this robots.txt file.
Line 1
User-agent: *
Line 2
Allow: / Unknown command. Acceptable commands are "User-agent" and "Disallow". A robots.txt file doesn't say what files/directories you can allow but just what you can disallow. Please refer to Robots Exclusion Standard page for more informations.