Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE

Udfordringer ved at fjerne Duplicate Content

Side 3 ud af 3 (26 indlæg)
Fra Pompano Beach, Florida, USA
Tilmeldt 19. Apr 06
Indlæg ialt: 3762
Fra  Concept Interest TCON Services LLC Skrevet kl. 15:56
Hvor mange stjerner giver du? :
Gennemsnit 1,0 stjerner givet af 1 person

Jakob Søndergård:

Thomas Rosenstand:

Det er Mikkel, der har ret her. Og hvis han har uret, har Google det også ;-)

Din video fortæller præcis det samme som jeg skrev. At Mikkel har ret hvad angår robots.txt men tager fejl hvad angår metatagget. Det er godt I kan bakke hinanden op... Wink

Øh? Det er også robots.txt, jeg skrev om - ikke meta tagget. Der er såmænd ikek så meget opbakning i det.

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 16:37
Hvor mange stjerner giver du? :

Thomas Rosenstand:

Jeg råder til det, når der ikke er andre muligheder - som f.eks. på en DanDomain shop. I min verden er det altid bedre at undgå et problem end at reparere det - men jeg er sørme også tilhænger af at sætte et plaster på, hvis man har skåret sig. Jeg håber, du kan forstå det nu?

ja, det er altid bedre at undgå problemer, ved fx at fjerne årsagen, og det er blandt andet også derfor det er utroligt svært i mit CMS system at genere DC. Jeg har endnu ikke kunne generere det. Og jeg forstår samtidig også godt at man må gøre hvad man kan for at fjerne et problem, hvis andre ting ikke er muligt. Det er jeg selv tit ude for.

Men så vidt jeg har forstået det mikkel siger, så er det det at man bruger ordet "blokering for indeksering" i forbindelse med "robots.txt", der er det forkerte. Og så er der rigtig mange SEO folk som er forkerte på den og samtidig ifølge mikkel giver dårlige råd. inklusiv dig :)

Men lige meget, jeg gider ikke diskuterer dette emne mere. Jeg har andre og bedre ting at tage mig til end at diskuterer om hvorhvid jeg har oplevet en ting virke eller ikke. Det svare til at betvivle om jeg sad ved mit tastatur og skrev dette indlæg. Big Smile

I sidste ende gav mikkel det samme råd som jeg gjorde allerede i starten. nemlig 301 redirect ;)

MVH Kim


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Fra Pompano Beach, Florida, USA
Tilmeldt 19. Apr 06
Indlæg ialt: 3762
Fra  Concept Interest TCON Services LLC Skrevet kl. 17:01
Hvor mange stjerner giver du? :

KTJ-Media.dk:
Men lige meget, jeg gider ikke diskuterer dette emne mere. Jeg har andre og bedre ting at tage mig til end at diskuterer om hvorhvid jeg har oplevet en ting virke eller ikke.

Det er cool med mig.

Skulle andre være interesserede: At fjerne DC med robots.txt er "sidste udvej" og f.eks. den eneste reelle mulighed p.t. på en DanDomain shop. Gøres det med robots.txt er det ingen garanti for, at URL'en ikke indekseres, men det er en garanti for, at den ikke crawles. Det er ikke alle, der kan forstå forskellen på crawling, indeksering og ranking, men det er ret væsentligt at sætte sig ind i.

Nu vil jeg ud at nyde det gode vejr. God søndag!

Fra Helsingør
Tilmeldt 23. Nov 06
Indlæg ialt: 992
Fra  Hvorfor kan man ikke slette sin virksomhed fra Indeks? Skrevet kl. 22:47
Hvor mange stjerner giver du? :

Tak til alle som har deltaget i debatten!

Jeg er glad for det ikke kun er mig som roder lidt rundt i det :-)

Ha en fed uge når I vågner i morgen! Big Smile

Fra Roskilde
Tilmeldt 30. Jul 06
Indlæg ialt: 2298
Skrevet kl. 21:12
Hvor mange stjerner giver du? :
Gennemsnit 3,7 stjerner givet af 3 person

Jakob Søndergårds indlæg et "spot on". robots-NOINDEX er ekskluderende, og bruger man det vil den pågældende url IKKE optræde i Google. Ydermere kan en NOINDEX side opbygge PageRank og viderebringe PageRank. Derfor anbefaler Google at man bruger tagget til fx login-sider.

At returnere 404 eller 410 koder på siderne kan IKKE anbefales medmindre du fjerner de links der linker til siderne. Ellers fortæller du både brugere og søgemaskiner at dit site ikke hænger sammen*. Derfor skal du overveje om du vil (og kan) fjerne disse links. At 301 redirecte siderne vil også forvirre dine brugere.

Hvis ikke du kan fjerne disse links, er det bedste at bruge:

  •  robots NOINDEX
  •  rel-canonical tagget
  • bede Google om at ignorere de pågældende parametre via Webmaster tools.
  • at ekskludere siderne via webmaster tools

Forvent at skulle vente til næste gang Google prøver crawler siden før den forsvinder (alt hurtigere end det er bonus).

Mvh Jesper Jørgensen

*) SID er speciel da den ikke gør noget for usability, tjek denne url: http://inchoo.net/tools/remove-sid-from-magento-urls/ 

 

Fra København S
Tilmeldt 1. Feb 06
Indlæg ialt: 3533
Fra  Kim Tetzlaff ApS Kim Tetzlaff Ejendom Skrevet kl. 21:39
Hvor mange stjerner giver du? :

Jesper Jørgensen:

Hvis ikke du kan fjerne disse links, er det bedste at bruge:

  •  robots NOINDEX
  •  rel-canonical tagget
  • bede Google om at ignorere de pågældende parametre via Webmaster tools.
  • at ekskludere siderne via webmaster tools
Dette er faktisk den korrekte metode til lige dit problem. Det gik lige op for mig at det du prøver at fjerne er en del af en sorteringsmulighed på din hjemmeside, og til det skal man hverken bruge 301 redirect, 404 eller 410.

2 SEO folk, har talt, og til sidst kommer jesper som så har den rigtige løsning.

Godt set Jesper :)

MVH Kim


Kim Tetzlaff


🚀 Hastighedsekspert ⚙️WordPress hjemmesider 🎯SEO
Siden 1995 - hjemmeside Udvikling og teknisk optimering af hjemmesider
👉 Mere om mig

Side 3 ud af 3 (26 indlæg)