Er der en eller anden kode, man kan anvende til at sikre at enkelte htm sider ikke findes ved søgninger på nettet?
Synes jeg har set en kode engang, man kunne lægge ind i dokumentets kode, men kan for min død ikke finde den.
For pdf filer, der ligger på ens site, går jeg ud fra at man kunne lægge et brugerid og pw ind, men har ingen anelse om hvor og hvordan. Ideer og indslag er meget velkomne..
kh. Sophie
MAGMENTOR.COM - Udgiv dit Online Magasin på AppStore
Afhængelig af hvilket program du bruger - kan du som regel "password protect" når du gemmer filen som pdf. Men som udgangspunkt når du har lavet en .pdf fil kan folk jo ikke redigere i den.
Er det en e-bog du skriver? Kan du evt. kontakte myll.dk eller brian brandt her inde fra.. Han kan sikkert hjælpe dig med det!!
Hvis du vil undgå, at sider indexeres af søgemaskiner er den rigtige måde at gøre det på ved at lave en robots.txt fil. Du kan læse mere på http://www.robotstxt.org/ - nofollow fortæller ikke en søgemaskine at siden der peges på ikke skal indexeres, udelukkende at crawleren ikke skal følge linket. Du kan læse mere om NoFollow på Wikipedia. En robots.txt fil garanterer heller ikke, at søgemaskinen ikke vil indexere siderne, det er en vejledning til søgemaskinen mere end det er en regel - men de store søgemaskiner retter sig normalt pænt efter, hvad vejledningen siger.
Hvis du vil gå mere aggressivt til værks kan du lave adgangsbeskyttelse på de sider, du ikke vil have indexeret. Men så vil de kun være tilgængelig for de af dine brugere, der har fået tildelt adgang.