Du overfortolker og fejlfortolker i alvorlig grad.
Faktum er, at alle de stoe søgemaskiner er ekstremt linkfokuseret - uden links ingen rankings. At proppe siderne ned i halen på søgemaskinerne via XML sitemaps ændrer ikke på dette. Tværtimod - det kan gøre det meget sværere, at se de fejl eller mangler der måtte være, som resulterer i den manglende indeksering.
Det er som sagt et emne vi har diskuteret til hudløshed på de mange udenlandske konferencer som jeg taler på - og med små nuanceforskelle er concensus altså som både Thomas og jeg siger her.
XML sitemaps er i langt de fleste tilfælde i bedste fald en dårlig lappeløsning. Langt bedre resultater kan opnås ved at rette de fejl og mangler der måtte være. Det er Rand iøvrigt også helt enig med mig i. Spørgsmålet er egentligt mere hvornår man gider at tage kampen med at lave tingene rigtigt - og hvornår man bare spiser sine kunder af med noget der ser flot ud på papiret (fuld indeksering) men som ikke skaber nogen reel værdi (ranking, trafik og konverteringer). Jeg plejer at holde mig til det første.
Hej Mester deMib,
Det er muligt at vi taler forbi hindanden - jeg taler for og du taler imod.
Men jeg vil næsten gerne prøve at bede dig om at tage teten op igen ...jeg ved ikke hvor lang tid siden det er at du har implementeret sitemaps? Måske bliver det vægtet højere nu!? Og det er lidt generelt min erfaring at Google er begyndt at vægte god brug af teknologi ekstremt højt.
Jeg har for nyligt lavet sitemaps på et site der manglede at få indekseret 1/3 af siderne ...det var et lorte CMS system der var årsagen ...kunden ville ikke skifte. Jeg lavede et sitemap, og ALLE siderne fik en betydelig højere rank! Og de sider der ikke var indekseret kom med i betragtning af det fulde site.
Der er en anden meget meget vigtig ting ved sitemaps som du ellers går glip af ved sites der er lavet med dynamiske sider ...nemlig hvornår en given side sidst er opdateret. Det betyder at Google Botten skal hente indholdet af siden for at finde ud af om indholdet er opdateret ...og det gør den konsekvent ikke på store sites.
Når det er statiske sider vi har med at gøre sender webserveren Last-Modified headers, og Google Botten downloader så ikke indholdet af resourcen hvis den har seneste version - det er én af årsagerne til at den omtalte side ikke er indekseret - og det kompenserer et sitemap for.
En af de andre gevinster der er ved at få alt indholdet indekseret er at et fiktivt produkt som f.eks. "lampeolie med citronduft" ikke behøver særlig høj ranking, fordi at konkurrencen ikke er stor på så specifikt et produkt ...god chance for top-score ved specifikke søgninger ...og derfor vigtig at få med.
Og så skal jeg lige sige igen ...sitet der er omtalt her i tråden har ikke problemer med den interne linkstruktur ...det er ikke det der er årsagen til at siderne ikke er indekseret.
Det er i øvrigt ret let at tjekke for om der er andre sider der linker internt til en side ...det er bare et spørgsmål om at trække de rigtige data ud når man har crawlet ...jeg anbefaler 10 piskeslag til din SQL mand for ikke at have forslået det tidligere ;-)
På SeoMoz.org ser det ud til at de er kommet frem til ca. det samme ...og de er efter min mening blandt top-10 mest troværdige resourcer på SEO.
:-) Andy