Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE

Spørgsmål til sitemap.

Side 14 ud af 14 (136 indlæg)
Tilmeldt 2. May 10
Indlæg ialt: 107
Skrevet kl. 21:32
Hvor mange stjerner giver du? :

Andy Max Jensen:

Hej René,

Det er rigtigt at den slags kan forkomme ved produkter som f.eks. er meget dårligt beskrevet.

Ved store sites med mange produkter er problemet typisk relateret til link-dybde ...altså ...hvor mange gange skal man trykke på "næste" for at komme til den side hvor et givent produkt er listet.

I de tilfælde er der, når alle sider er indekseret, lige mange links til alle produkter. Og i de tilfælde er Sitemaps en rigtig god løsning ...med mindre at man vil skyde med spredhagl med sin linkjuice.

:-) Andy

Hej Andy

Seo er ikke eksakt viden og videnskab, men bygger på test, test og test i forhold til den måde søgemaskiner strukturerer sine algoritmer, dette kombineret med vidensdeling.

Vi skal huske på at søgemaskiner udarbejder sine algoritmer i forhold til deres egen forretning, og med dertilhørende vurdering af hvilke sider de finder relevante i forhold til deres måde at præsentere deres søgeresultater på i søgeresultatlisten.

Når jeg siger at XML maps ikke giver værdi, men snarere en falskt tryghedsfølelse, skal det forstås således at der ligger timevis af egne test, på et utal af testdomæner som grundlag for disse udtagelser. Jeg har ikke oplevet nogen bedre indeksering ved brug af XML maps.

Hvordan kan vi udtale os mod bedre vidende?

Vi læser om andres erfaringer, men det får aldrig lov til at stå alene, alle tiltag testes igen og ingen under forskellige former på vores egne platforme, herved opnås viden om hvad der fungerer og hvad der ikke er værd at spilde sit krudt på.

Hvis vi ser på store websites som bruger XML-maps - ranker de ikke efter deres størrelse se f.eks.

dr.dk.:                8.740.000
tv2.dk.:                 313.000
krak.dk.:                843.000 
degulesider.:       4.470.000 
ekstrabladet.dk      207.000

Ved et blik på antallet af sider som Google kender via XML-maps, burde disse websteder fremstå i enhver søgning på Google på de fleste former for søgeord.

Der er godt nok andre elementer involveret i algoritmen, som gør disse sider ikke ranker på alle søgeord, men at tro at fordi der er indekseret hen ved 9 millioner sider fra f.eks. dr.dk ranker websitet på de fleste termer, det er forkert at tro.

Så kommer svaret nok, at Google ved alt, men det skal man ikke tro på, jeg har skrevet og talt i telefon flere gange med Google medarbejdere om deres egen serveropsætning og en utæt webserver på den danske Google, dette siden marts 2010, de har været glade og takkede for informationen, men dags dato står serveren stadig pivåben, dette fortæller at det er et stort hus, hvor der udvikles og sættes tiltag i gang.

Jeg stødte på server og domæne problemer på den danske Google i forbindelse med testarbejder og kontrol.

Læs om Google server opsætning.  Jeg undlader at beskrive hvordan der kan udnyttes linkværdi og hijacking på denne server, hvilket server konfigurationen giver mulighed for.

Der er flere fejlelementer end dem der er beskrevet i blog indlægget, men Google er informeret om dette, så eksemplet må være nok.

René Madsen

Online Marketing - online markedsføring - søgemaskineoptimering og Adwords

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3528
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 22:03
Hvor mange stjerner giver du? :

Seo er ikke eksakt viden og videnskab, men bygger på test, test og test i forhold til den måde søgemaskiner strukturerer sine algoritmer, dette kombineret med vidensdeling.

Vi skal huske på at søgemaskiner udarbejder sine algoritmer i forhold til deres egen forretning, og med dertilhørende vurdering af hvilke sider de finder relevante i forhold til deres måde at præsentere deres søgeresultater på i søgeresultatlisten.

Når jeg siger at XML maps ikke giver værdi, men ......

Meget godt indlæg ;)

Ekspert i hastighedsoptimering og Teknisk SEO

Optimering og udvikling af hurtige hjemmesider, med mere end 25 års erfaring. Danmarks bedste hastighedsoptimering med speciale i wordpress. Wordpress hjemmeside

Tilmeldt 20. Aug 10
Indlæg ialt: 217
Skrevet kl. 23:26
Hvor mange stjerner giver du? :
Gennemsnit 1,0 stjerner givet af 2 person

Online Marketing:

Hej Andy

Seo er ikke eksakt viden og videnskab, men bygger på test, test og test i forhold til den måde søgemaskiner strukturerer sine algoritmer, dette kombineret med vidensdeling.

Vi skal huske på at søgemaskiner udarbejder sine algoritmer i forhold til deres egen forretning, og med dertilhørende vurdering af hvilke sider de finder relevante i forhold til deres måde at præsentere deres søgeresultater på i søgeresultatlisten.

Når jeg siger at XML maps ikke giver værdi, men snarere en falskt tryghedsfølelse, skal det forstås således at der ligger timevis af egne test, på et utal af testdomæner som grundlag for disse udtagelser. Jeg har ikke oplevet nogen bedre indeksering ved brug af XML maps.

Hvordan kan vi udtale os mod bedre vidende?

Vi læser om andres erfaringer, men det får aldrig lov til at stå alene, alle tiltag testes igen og ingen under forskellige former på vores egne platforme, herved opnås viden om hvad der fungerer og hvad der ikke er værd at spilde sit krudt på.

Hvis vi ser på store websites som bruger XML-maps - ranker de ikke efter deres størrelse se f.eks.

dr.dk.:                8.740.000
tv2.dk.:                 313.000
krak.dk.:                843.000 
degulesider.:       4.470.000 
ekstrabladet.dk      207.000

Ved et blik på antallet af sider som Google kender via XML-maps, burde disse websteder fremstå i enhver søgning på Google på de fleste former for søgeord.

Der er godt nok andre elementer involveret i algoritmen, som gør disse sider ikke ranker på alle søgeord, men at tro at fordi der er indekseret hen ved 9 millioner sider fra f.eks. dr.dk ranker websitet på de fleste termer, det er forkert at tro.

Så kommer svaret nok, at Google ved alt, men det skal man ikke tro på, jeg har skrevet og talt i telefon flere gange med Google medarbejdere om deres egen serveropsætning og en utæt webserver på den danske Google, dette siden marts 2010, de har været glade og takkede for informationen, men dags dato står serveren stadig pivåben, dette fortæller at det er et stort hus, hvor der udvikles og sættes tiltag i gang.

Jeg stødte på server og domæne problemer på den danske Google i forbindelse med testarbejder og kontrol.

Læs om Google server opsætning.  Jeg undlader at beskrive hvordan der kan udnyttes linkværdi og hijacking på denne server, hvilket server konfigurationen giver mulighed for.

Der er flere fejlelementer end dem der er beskrevet i blog indlægget, men Google er informeret om dette, så eksemplet må være nok.

René Madsen

Hej René,

Jeg er helt enig i at hverken store sites eller sitemaps er nogen garanti for at en side ranker godt ...jeg har set masser af sites med måske kun 10 sider som ranker bedre på søgeord end store sites gør ...det er jo klart nok at det ville være useriøst af Google kun at belønne ud fra størrelsen :-)

Tilmeldt 2. May 10
Indlæg ialt: 107
Skrevet kl. 09:25
Hvor mange stjerner giver du? :

Andy Max Jensen:

Jeg er helt enig i at hverken store sites eller sitemaps er nogen garanti for at en side ranker godt ...jeg har set masser af sites med måske kun 10 sider som ranker bedre på søgeord end store sites gør ...det er jo klart nok at det ville være useriøst af Google kun at belønne ud fra størrelsen :-)

Hej Andy

Google belønner ikke websites ud fra størrelsen, men ud fra hvordan websitets tekstmasse, sideopbygning og linkstrukturer er (Interne såvel eksterne links) at sitet har mange sider er ikke ensbetydende med siderne ikke ranker i søgeresultaterne, grunden er i de fleste tilfælde manglende viden om hvordan linkningen skal opbygges på sitet, det kan en XML-map ikke kompensere for, den forvirrer tværtimod ved at få blandet sider der ranker fra det pågældende websted sammen med sider der ikke kan stedbestemmes af Google, som derfor placeres uden for ranking området, dette giver mange sider indekseret med meget få placeringer i resultatlisten på søgninger.

Derfor er det bedre at der er sammenhæng imellem de sider der er indekseret og ranking. Ellers kan man stille spørgsmålet, hvorfor vælger Google tømremester Olsens website i Sdr. Jernløse frem for en af de store byggevarehuse på søgefraser der fremgår flere hundrede gange mere på byggevarehusets website? Svaret er god tekstsammensætning, sideopbygning og linkstruktur, dette kombineret med relevant linkbuilding på tømremesterens website.

Der er ikke tale om at det ville være useriøst af Google at vælge byggevarehuset frem for tømremesterens website - Google skal levere de resultater som er mest relevant for den pågældende søgning, dette uanset størrelsen på websitet.

Hvis siderne ikke er med i Google uden XML-maps kan websiteejeren forholde sig til der er et strukturproblem eller indekseringsbarrierer på det pågældende website – og kan efterfølgende arbejde med at få siderne placeret og ranket i søgemaskinernes resultatliste.

 

René Madsen

Online Marketing - online markedsføring - søgemaskineoptimering og Adwords

Fra Herlev
Tilmeldt 19. Nov 09
Indlæg ialt: 87
Skrevet kl. 21:59
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Hej Mikkel

Nu er jeg tottal forviret over noget og jeg håber du kan hjælpe?

I dene her debat og på din blog advarrer du hele tiden mod XML sitemaps. Men nu sidder jeg sammen med en bekendt som i efterårret 2010 har fåt en SEO rapprot fra dig (demib.com). I den står der:

"Som udgangspunkt anbefaler vi at benytte XML sitemap. Dog skal specifikationer følges til fulde"

I same rapport anbefaler du at bruge cannonikal URL tag. Dem syns jeg ogse altid du advarrer mod?

Jeg er ikk ude på balade men nu er jeg bare forviret. Kan du opklarer det?

God weekend :-)

 

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3528
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 22:49
Hvor mange stjerner giver du? :

Lars Birkedal:
I same rapport anbefaler du at bruge cannonikal URL tag. Dem syns jeg ogse altid du advarrer mod?
Jeg tror ikke at der er nogen som direkte advare imod canonical urls, heller ikke demib. Sådan som jeg selv har det med dem, så skal man ikke se det som en løsning på det at fjerne Duplicate Content, men som en ting man yderligere kan gøre for at undgå det. Det er altid bedre at fjerne årsagen end at bruge lappeløsninger.

MVH Kim

Ekspert i hastighedsoptimering og Teknisk SEO

Optimering og udvikling af hurtige hjemmesider, med mere end 25 års erfaring. Danmarks bedste hastighedsoptimering med speciale i wordpress. Wordpress hjemmeside

Side 14 ud af 14 (136 indlæg)