Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE

Duplicate Content - råd til udelukkelse af 167 sider

Side 1 ud af 2 (14 indlæg)
Fra København
Tilmeldt 30. Nov 07
Indlæg ialt: 250
Fra  Deducta Search Skrevet kl. 23:27
Hvor mange stjerner giver du? :

Hej Aminoer

Inden jeg smider min robots.txt fil op vil jeg lige 100 % sikre mig at det er der rigtige jeg gør.

Har udelukket alle produkter med samme tekst, hvor kun farven på smykkerne er skiftet ud.

Et eksempel er disse ørestikker fra Liebwald

 

Jeg har altså læst mig frem til at jeg skal udelukke alle de andre farver pånær variantmasteren, og det har jeg så gjort i robots.txt, men er det nu også det rigtige at gøre?

Selvom det laver DC så er det vel stadig indekserede sider - og skader det virkeligt?

 

På forhånd tak - tror måske godt jeg kender svaret men kunne nu godt tænke mig lige at få det sidste spark bagi!

Head of SEO & Owned Media i Group M | Blogger om SEO, e-handel, online marketing, content marketing og sociale medier.

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 23:47
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 2 person

Hey

Det er ikke helt den rigtige måde at gøre det på. Da dine dublikerede sider er indekseret af Google, er det nødvendigt at bruge noindex meta-robots tagget i stedet for. Da Google ikke vil fjerne siden bare ved at den bliver udelukket i Robots.txt.

Yderligere kan du med de sider som er indekseret fortælle Google via Webmaster Tools at siderne skal fjernes fra deres index.

Duplicate Content er skadeligt i den forstand at du tvinger Google til at vise 1 af de dublikerede sider, og det er ikke sikkert de vælger rigtigt. Og samtidig har jeg oplevet i de tests jeg har lavet at et resultat er røget længere ned på Google, udelukkende pga DC.

Så ja man kan sige at det er skadeligt

MVH Kim


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Fra København
Tilmeldt 30. Nov 07
Indlæg ialt: 250
Fra  Deducta Search Skrevet kl. 09:58
Hvor mange stjerner giver du? :

Tak for svar Kim!

KTJ-Media.dk:
Det er ikke helt den rigtige måde at gøre det på. Da dine dublikerede sider er indekseret af Google, er det nødvendigt at bruge noindex meta-robots tagget i stedet for. Da Google ikke vil fjerne siden bare ved at den bliver udelukket i Robots.txt.

Okay? den har jeg aldrig hørt om før. Hvor finder man information om den henne?

KTJ-Media.dk:
Yderligere kan du med de sider som er indekseret fortælle Google via Webmaster Tools at siderne skal fjernes fra deres index.

Er det under site configuration -> crawler access -> remove url?

Og hvis det er tilfældet så ligger der et stort arbejde foran mig til resten af dagen - 170 sider kan vel godt tage sin tid.

 

Head of SEO & Owned Media i Group M | Blogger om SEO, e-handel, online marketing, content marketing og sociale medier.

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 10:07
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Nikolaj Mogensen:

Okay? den har jeg aldrig hørt om før. Hvor finder man information om den henne?

Har du selv programmeret siden kan du læse mere om tagget her: http://www.robotstxt.org/meta.html du skal dog være opmærksom på at hvis du har lavet siden i XHTML, skal koden være med små bogstaver.

Har du ikke selv gjort det, bør der være en mulighed for at du kan vælge det i selve systemet, hvis dem der har lavet systemet da har tænkt på det.

Nikolaj Mogensen:
Er det under site configuration -> crawler access -> remove url?

Ja det er der.


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Fra København
Tilmeldt 30. Nov 07
Indlæg ialt: 250
Fra  Deducta Search Skrevet kl. 10:19
Hvor mange stjerner giver du? :

KTJ-Media.dk:
Har du selv programmeret siden kan du læse mere om tagget her: http://www.robotstxt.org/meta.html

'Desværre' er shoppen i Dandomain så tvivler på jeg har muligheden.

Der står "You can use a special HTML <META> tag to tell robots not to index the content of a page, and/or not scan it for links to follow." - Er det netop ikke hvad man gør med robots.txt.

Giver det ikke det samme hvis jeg i webmastertools fjerne de URL der giver DC og så derefter uploader robots.txt?

Endnu en gang må jeg sige tusind tak for dine svar - det hjælper super meget Yes

 

Head of SEO & Owned Media i Group M | Blogger om SEO, e-handel, online marketing, content marketing og sociale medier.

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 10:30
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Nikolaj Mogensen:

'Desværre' er shoppen i Dandomain så tvivler på jeg har muligheden.

Nej så har du nok ikke muligheden

Nikolaj Mogensen:

Der står "You can use a special HTML <META> tag to tell robots not to index the content of a page, and/or not scan it for links to follow." - Er det netop ikke hvad man gør med robots.txt.

Der er delte meninger om dette emne, Jeg har oplevet at Google har fjernet resultater fra Google hvis jeg skrev det i Robots.txt, Men reelt set blokerer man kun for at Google skal Crawle siden. Det er ikke helt det samme som indekserer siden.

Nikolaj Mogensen:
Giver det ikke det samme hvis jeg i webmastertools fjerne de URL der giver DC og så derefter uploader robots.txt?

Problemet er at der er nogle regler som skal være opfyldt før du kan gå ind i webmaster tools og fjerne urlerne. og ja der er det at man skriver det ind i robots.txt også en af reglerne. Men problemet kommer der at du så skal indskrive i robots.txt hver gang du opretter et produkt. og det blokerer jo ikke for indeksering, men det blokerer for crawling.
Man kan så diskuterer om det så skaber DC, for den ser jo ikke indholdet på siden uden at crawle den, og det er jo indhold som skaber DC.

MVH Kim


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 10:40
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Nikolaj Mogensen:
'Desværre' er shoppen i Dandomain så tvivler på jeg har muligheden.
Mener faktisk jeg har læst og hørt at den eneste mulighed i den type shop er robots.txt. Den er ikke optimal, men den klare noget af arbejdet. Det er vidst Thomas Rosenstand som har skrevet om problematikken med Dandomain shops.


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Fra København
Tilmeldt 30. Nov 07
Indlæg ialt: 250
Fra  Deducta Search Skrevet kl. 10:48
Hvor mange stjerner giver du? :

KTJ-Media.dk:
Der er delte meninger om dette emne, Jeg har oplevet at Google har fjernet resultater fra Google hvis jeg skrev det i Robots.txt, Men reelt set blokerer man kun for at Google skal Crawle siden. Det er ikke helt det samme som indekserer siden.

Men dvs man jo som udgangspunkt skal have sin robots.txt fil opdateret ved hver eneste nye side med DC på ens website. Man skal altså med andre ord ha' lavet den FØR googlebotten kommer forbi.

KTJ-Media.dk:
Problemet er at der er nogle regler som skal være opfyldt før du kan gå ind i webmaster tools og fjerne urlerne. og ja der er det at man skriver det ind i robots.txt også en af reglerne.

Okay så man skal altså uploade robotsfilen inden man begynde at fjere de sidder der ikke skal være indekserede?

KTJ-Media.dk:
Men problemet kommer der at du så skal indskrive i robots.txt hver gang du opretter et produkt.

Synes egentlig ærlig talt det er noget farligt bøvl med det DC Devil burde google altså kunne gøre noget smartere og bedre! Det er vel meget naturligt at et produkt kan have flere farver og at der derved skabes DC.

 

Head of SEO & Owned Media i Group M | Blogger om SEO, e-handel, online marketing, content marketing og sociale medier.

Fra København
Tilmeldt 30. Nov 07
Indlæg ialt: 250
Fra  Deducta Search Skrevet kl. 10:50
Hvor mange stjerner giver du? :

KTJ-Media.dk:

Nikolaj Mogensen:
'Desværre' er shoppen i Dandomain så tvivler på jeg har muligheden.
Mener faktisk jeg har læst og hørt at den eneste mulighed i den type shop er robots.txt. Den er ikke optimal, men den klare noget af arbejdet. Det er vidst Thomas Rosenstand som har skrevet om problematikken med Dandomain shops.

Sidder med Rosenstands SEO tunning til dandomain samt SEO lex, og her nævner han 'vidst nok' ikke noget om problematikken. Faktisk skriver han heller ikke noget om det med meta, kun brug af robots.txt

Men skal da ikke afskrive, at der kan være lidt huller i min hukommelse Geeked samt at der evt står noget andet et andet sted.

 

Head of SEO & Owned Media i Group M | Blogger om SEO, e-handel, online marketing, content marketing og sociale medier.

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 10:53
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Nikolaj Mogensen:

Sidder med Rosenstands SEO tunning til dandomain samt SEO lex, og her nævner han 'vidst nok' ikke noget om problematikken. Faktisk skriver han heller ikke noget om det med meta, kun brug af robots.txt

Han skriver kun om robots.txt fordi det er det eneste man kan gøre med en dandomain shop :)


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Side 1 ud af 2 (14 indlæg)