Men som Thomas, og os andre har sagt mange gange, så har det ikke nogen indflydelse i SEO sammenhæng..
Enig men hvis man ikke er kode minded ved man jo ikke om det faktisk har indflydelse da man ikke forstår de fjel man evt får i W3C!
Her tænker jeg på det Thomas skriver
- medmindre der er tale om fejl, der gør det umuligt for en crawler at læse dit indhold.
Derfor kan man som alm person gardere sig ved at få sin programmør til at overholde .
/allan
Det er noget sludder - beklager. Man kan sagtens lave en hjemmeside, der validerer 100% efter W3C, men som ikke kan crawles af en søgemaskine.
Det er en rigtig god ide at en hjemmeside validerer så godt som muligt - men det har ingen effekt i forhold til SEO. INGEN! Og en hjemmeside, der ikke validerer, er ikke det samme som at sende noget til en kunde med stavefejl. Hvis det ser ordentligt ud i browseren, er det alt rigeligt. Det er jo kun webnørder, der ved, at der findes noget, der hedder W3C.
Jeg har en hel pose fyldt med historier fra det virkelige liv om firmaer, der har fået at vide fra deres webleverandør, at deres hjemmeside er søgemaskinevenlig, for den validerer efter W3C. Og jeg har leveret rapporter på 15-20 sider til store danske virksomheder med beskrivelser af lange rækker af markante fejl på deres hjemmesider - hvor webbureauet blot svarer kunden, at det er ligegyldigt det hele, for hjemmesiden validerer.
Jeg vil anbefale, at vi for tid og evighed adskiller ordene "SEO" og "W3C", så de ikke optræder i samme debatter. For de har intet med hinanden at gøre. Nogle af de bedst rankede sites nationalt og internationalt på ekstremt konkurrenceprægede søgninger validerer overhovedet ikke. Og der er lige så mange, der validerer, som er fuldstændigt håbløse for en crawler at bearbejde.