Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE
Hvor mange stjerner giver du?

Sikker SEO

768 Visninger
Hvor mange stjerner giver du? :
26 August 2021

Når jeg arbejder med SEO vil jeg gerne være sikker på, at det jeg laver virker – både på kort og lang sigt. Og det kan bestemt godt være udfordrende.

Der er to ting, som er særligt udfordrende:

  1. Google ændrer løbende på deres algoritmer
  2. Google respekterer ikke altid alle signaler

Så det skal vi se lidt nærmere på i dag …

 

Der er forskel på ”signaler” og ”direktiver”

En af de vigtige detaljer i forhold til SEO, som mange ikke helt har styr på er forskellen på ”signaler” og ”direktiver”. Så lad mig kort ridse det op.

Signaler er data, som Google som regel læser, men som de ikke garanterer altid at bruge eller respektere. Omvendt er direktiver kommandoer, som Google altid følger.

Al META-data – som META-descriptions, TITLEs, META-robots (NOINDEX) og CANONICAL-tags er signaler. Det samme gælder XML-sitemaps og Hreflang. Google læser, som oftest, denne data men garanterer ikke at de altid vil bruge den og de anvisninger der inkluderes.

Omvendt er f.eks. Robots.txt og redirects direktiver som Google altid følger.

Særligt i den seneste årstid har mange websites oplevet problemer med CANONICAL-tags og NOINDEX, som Google ikke respekterer og i de seneste uger har mange oplevet at Google ikke brugte deres TITLE-tag, men i stedet for sidens primære (ofte H1) overskrift som den klikbare titel i søgeresultaterne.

Konsekvensen af dette, hvis du ikke har taget højde for det, kan være både fejl i indekseringen af dit website, filtrering og udelukkelse af vigtige sider og faldende synlighed.

Men hvad kan du så gøre ved det?

Vælg altid sikre løsninger når det er muligt

Inden du beslutter dig for, hvordan du løser forskellige diverse detaljer udfordringer og struktur på dit website er det vigtigt, at du overvejer alle muligheder.

Hvis det er muligt med en løsning der ikke er afhængig af en fortolkning og vurdering af Google – et direktiv frem for et signal, så vil det være sikrest at vælge denne.

Lad os se på et par eksempler.

Sikker udelukkelse af sider eller filer

Hvis du har sider på dit website, som også – helt, delvist eller i udvidet omfang også findes som PDF filer, så vil det normalt være bedst at udelukke dem fra Google.

Almindelige websider er næsten altid bedre landing-sider end PDF-filer og du bør i alle fald aldrig stå tilbage med to identiske versioner af dine tekster som kan crawles eller indekseres. Så risikerer du bare at rende ind i Duplicate Content filtre – eller at den ”forkerte” version dukker op i Google, frem for den ”rigtige”. Det er en risikabel løsning.

Du kan ikke, som med en webside indsætte META-robots NOINDEX direkte i PDF-filen, men du kan bruge HTTP X-Robots-Tag response header til at opnå det samme. Men det er et ”signal” – ikke et ”direktiv”. Så det er en usikker og ustabil løsning.

En mere stabil og sikker løsning er, at udelukke dine PDF-filer fra crawling med robots.txt. Det er et ”direktiv”, som Google altid overholder. Det er lettest, hvis alle PDF-filerne ligger i samme folder på din server – så kan du bare udelukke hele den folder.

Herefter vil Google ikke crawle dine PDF-filer. Det udelukker dem dog ikke fra at indeksere dem og linke til dem i søgeresultaterne. Men da de ikke crawler dem, kan de ikke se indholdet og du er derfor sikret mod Duplicate Content problemer. Og i praksis vil de stort set aldrig dukke op i Google – netop fordi de ikke kan læse indholdet.

Du får så også den fordel ud af denne løsning at Google ikke skal spilde tid på at crawle indhold som du alligevel ikke ønsker de skal bruge. Så kan de koncentrere sig om crawlingen af dit ”rigtige” indhold.

Det er en løsning som du kan være sikker på både virker i dag og i morgen. Sandsynligvis mange år frem. Den slags kan jeg godt lide.

Et andet godt eksempel er produktvarianter.

Undgå fejl i indekseringen af produktvarianter

Produktvarianter er altid en større udfordring i webshops der bruger det. Skal de optimeres eller ej? Det spørgsmål skal du naturligvis først have afklaret.

For de fleste webshops vedkommende er det dog bedst ikke at optimere produktvarianter. For få søger direkte på dem til at det kan forsvares.

Den mest almindelige løsning er, at indsætte CANONICAL-tags på varianterne, som alle peger på den primære version af produktet. Ofte går det godt, men ikke altid. Du kan ikke være sikker. Og den usikkerhed hader jeg.

En bedre løsning kan derfor være, at flytte varianterne fra serverlaget til klientlaget. De adresseres så med #varant-id=113, frem for ?variant-id=123.

Alt efter # opfattes, med rette, af Google som en intern reference til et punkt på siden. Det medtages således ikke som en unik URL.

Det vil sige at følgende to URL’er kun opfattes som én, af Google:

  • www.DitWebsite.dk/ditProdukt.php#variant-id=123
  • www.DitWebsite.dk/ditProdukt.php#variant-id=456

Det er kun det der står før #, som Google opfatter som den unikke og indekserbare URL:

  • www.DitWebsite.dk/ditProdukt.php

Så med denne løsning undgår du at være afhængig af CANONICAL-tags og den usikkerhed det giver. Det er en sikker og stabil løsning.

Der er tilfælde hvor Google i et søgeresultat linker til ”fragmenter” – punkter på en side med #. Men det er i praksis ikke noget problem for, der findes stadig kun en primær URL og derfor kommer der ingen problemer med Duplicate Content.

TITLE-tags og META-beskrivelser er også et ”signal”

Selvom Google som oftest viser indholdet i dit TITLE-tag som det klikbare link i søgeresultaterne og META-beskrivelsen, som den korte beskrivelse nedenfor kan du aldrig være helt sikker. Det er et signal – ikke et direktiv.

Helt aktuelt har mange websites i de sidste uger oplevet, at Google viser sidens overskrift, frem for TITLE i søgeresultaterne. Det har overrasket mange, og en del står tilbage med dårligere præsentationer i Google.

Men hvad kan vi så gøre ved det, når vi nu ikke kan tvinge Google til at bruge vores TITLE-tags og META-beskrivelser?

Svaret er i denne, som i mange andre SEO-forhold, at gå med livrem og seler.

I forhold til TITLEs kan du sikre dig bedre ved at både din TITLE og øverste headline (typisk H1) er så ens som muligt. Uanset hvilken Google så bruger står du tilbage med et godt resultat.

Det samme gælder i forhold til META-description. Hvis du sørger for at den første del af din tekst, inkluderer dine keywords, og en kort beskrivelse der kan bruges som alternativ til META-beskrivelsen, så er du mere sikker på at det Google viser gavner dig.

Der er naturligvis mange andre tilsvarende situationer, der kræver tilsvarende gennemtænkte løsninger for at opnå et stabilt resultat. Men jeg håber du ud fra disse eksempler har forstået pointen.

Så lad os se lidt nærmere på det andet punkt – algoritmiske ændringer i Google

Hvordan forudser og imødekommer du algoritmiske ændringer?

Hvert eneste år laver Google tusindvis af justeringer og algoritmiske ændringer. Det er naturligvis umuligt med sikkerhed at vide hvad Google gør i morgen – eller næste år.

Men hvis du ved nok om hvilken retning Google arbejder, hvad de forsøger at opnå, og hvordan de forsøger at tilfredsstille søgebrugerne bedre, så kan du faktisk godt forudse meget.

Jeg har på den konto ofte været heldig at forudse store ændringer før de slog igennem og har derfor kunne rette mine – og mine kunders sites til, så de stod klar til ændringerne. Så har de ikke mistet synlighed – måske ligefrem vundet, når Google rullede ændringerne ud.

Og nej, jeg ikke sådan en magisk SEO-spåkugle. Men jeg har stort set ikke lavet andet end nørdet med SEO i over 20 år og jeg læser hver dag masser af nyheder om både Google, brugervenlighed, design, programmering og meget mere for at få en bedre indsigt i hvilken vej vinden blæser.

En af de første gange jeg tillod mig at publicere mine forudsigelser var tilbage i 2010, hvor jeg forudså at Google ville slagte de (mange) danske linkkataloger.

Og som du kan se, hvis du bladrer frem til de kommentarer der kom samme år i løbet af efteråret, så fik jeg ret.

Men faktisk var det ikke så svært at forudse. Google havde allerede haft riven ude i forhold til de udenlandske kataloger og der var enormt mange og ekstremt dårlige danske, som ivrigt blev brugt til linkbuilding.

Hvis vi spoler lidt frem, så var det også tydeligt for mig, at hastighed ville blive en vigtig faktor langt tid før det for alvor slog igennem. Det samme gælder linkdiversitet og de nyeste måder at fortolke indhold på.

Og ja, der er naturligvis også en smule held i det. Men held er som du sikkert ved ikke noget man ”får” – det er noget man ”tager”. Det er ikke helt tilfældigt at nogle er mere heldige end andre. Ofte ligger der et stort og løbende arbejde bag, indsigt og forståelse for emnet.

Jeg har i mange år praktiseret en SEO-strategi med mange af mine kunder, hvor jeg mere ser på hvad der er godt for søgebrugerne – end hvad Google gør lige nu. Mere på hvor jeg forventer at deres algoritme vil bevæge sig hen – simpelthen fordi det er mest logisk, end på hvordan den lige fungerer i dag.

Rent SEO-strategisk er det en god model for de fleste markeder at arbejde med. Men der er naturligvis undtagelser.

Hvis du forsøger at trænge igennem nogle af markeder hvor der er mest konkurrence, så er det ikke nok kun at se på det der (sikkert) kommer til at ske. Du bliver også nødt til at vide hvad der virker lige nu og så hard-core optimere på de parametre.

Men for langt de fleste virksomheder er det en mere sikker og stabil strategi at se fremad – optimere til det der virker i morgen, frem for det der virkede i går.

Stol ikke (blindt) på Google

I forlængelse af ovenstående er det vigtigt at understrege, at det meste af det Google skriver på deres hjælpesider for webmastere, er udtryk for det de gør – og gjorde i går. Ikke så meget hvad der sker i morgen. Så hvis du alene følger deres anvisninger, kommer du hurtigt bagud.

Nogle gange er de også lige vel optimistiske i deres beskrivelser af hvad de kan. Et godt eksempel er JavaScript.

Google er uden tvivl blevet bedre til at fortolke JavaScript. Og det er da godt. Men når man læser visse af deres udmeldinger om dette, så kunne man næsten tro, at rene Javascript-baserede websites er helt fint i dag. Det er det ikke!

I hvert fald ikke i forhold til SEO. Og jeg tør godt forudse, at de SEO-problemer vi altid har haft med JavaScript fortsætter meget længe endnu. Det er tydeligt for enhver, der forstå de mange udfordringer det giver i forhold til crawling, indeksering, fortolkning og brugervenlighed.

Sikker SEO kræver indsigt

I virkeligheden er det vel ikke så meget anderledes end med så meget andet. Dem der har den største indsigt vinder gennemsnitligt mere, end dem der ikke har.

Det gælder også indenfor SEO.

Mange slipper afsted med middelmådig optimering – særligt indenfor markeder med meget lille konkurrence. Men det er en usikker og ustabil strategi.

For alle der har mulighed for det vil jeg derfor meget anbefale, at du overvejer de ting jeg skriver om ovenfor. Gennemgå din optimering. Er der usikre løsninger eller gammeldags optimering, så overvej hvordan det kan gøres bedre. Så kan du sikre en mere stabil – en mere sikker SEO-løsning.

Hvor mange stjerner giver du? :
Få besked når Mikkel skriver Skriv dig op
Vi bruger cookies til at sikre, at du får den bedste oplevelse på Amino
Læs mere