Amino Ekspertblog

Ekspertblogger på Amino om SEO & reputation management

Fuck Google - stol på mig!

28. maj 2018 | 1.816 Visninger | 5 kommentarer
Hvor mange stjerner giver du? :

Amino Ekspertblog

Mikkel deMib Svendsen

Ekspertblogger på Amino om SEO & reputation management

Kan du dokumentere, at det du påstår er rigtigt? Hvordan kan jeg være sikker på, at det du siger vil virke i Google nu faktisk også gør det? Det kan da ikke være rigtigt at Google virkelig er dumme!

Ovenstående er spørgsmål og kommentarer jeg ofte får når jeg rådgiver kunder om SEO. Jeg forstår sådan set godt kundernes sunde skepsis og naturlige tvivl, om det jeg påstår faktisk også er sandt. Og jeg forstår sådan set også godt ønsket om dokumentation for mine påstande.

Problemet er bare, at det langt fra altid kan lade sig gøre. SEO er ikke en eksakt videnskab. På linje med meget anden markedsføring baserer rigtig meget af det jeg ved om SEO sig på erfaring – og kun i nogen grad på dokumenterbare data.

Google er ikke så dumme, som nogle tror

En del af mine SEO-kunder gennem tiden har som sagt undret sig over, hvorfor Google ikke sætter pris på deres website, sådan som de nu har valgt at lave det. Særligt irriteret bliver kunderne naturligvis, når de kan konstatere, at mange andre laver deres sites på næsten samme måde.

Til det må jeg så ofte sige, at ja, mange gør som dig, men deres resultater er også rigtig dårlige.

Og nej, det er ikke fordi Google er dumme. De er heller ikke (ubetinget) onde. Men ja, en del af de beslutninger de tager, og den måde de fortolker websites på, kan ved første øjekast godt virke lidt underlige. Men der er (som regel) mening med galskaben.

For det første skal du huske på, at Googles crawler- og indekserings- og ranking-systemer er lavet til, at kunne forstå milliarder af websider på tværs af alverdens teknikker og sprog. De sidder ikke manuelt og kigger på dem.

Det betyder i praksis, at nogle af de filtreringer de laver i de fleste tilfælde vil være fornuftige, men at de i nogle få – måske lige i dit, kan virke uhensigtsmæssige.

Et godt eksempel er filtrering af duplikeret indhold (Duplicate Content). Som udgangspunkt er det fornuftigt, da det ikke giver mening for Google at indeksere det samme, eller næsten det samme indhold, flere gange. Det fylder bare deres indeks op med data, de allerede har og det gavner ikke deres søgebrugere.

Problemet er så, at der er nogle sites, hvor en masse sider er næsten identiske og trods det ikke burde blive filtreret ud. Heller ikke hvis man ser på det ud fra en søge-bruger vinkel.

For nogle år siden sad jeg med en kunde der sælger elektronik komponenter – modstande, kondensatorer og den slags. Der er tusindvis af forskellige modstande, hvor den eneste forskel er impedansen (modstanden) på dem. Der er ikke rigtig noget meningsfuldt at skrive om hver af dem. Der er blot en overskrift med komponentens navn og impedans, hvilket også fremgår af et simpelt skema.

Problemet med denne webshop var så, at Google opfattede de mange tusinde komponentsider som næsten identiske og de fleste blev derfor filtreret fra af deres Duplicate Content filtre.

Men når vi ser på hvordan brugerne søger, så er der faktisk en del, der søger efter helt specifikke komponenter. For dem vil det naturligvis være bedst, at få et link i Google direkte til lige netop denne komponent, frem for en oversigtsside med alle de mange tusinde varianter.

Jeg havde lejlighed til at vende problematikken med en af Googles ledende softwareudviklere med ansvar for søgekvaliteten. Han kunne godt se problemet, og at deres Duplicate Content filtre i dette – og lignende tilfælde, fjernede for meget. Disse komponent-sider burde naturligvis kunne findes i Google. Han lovede at se på det og prøve at finde en løsning.

Desværre har Google – her flere år efter, stadig ikke fundet en løsning på den type sider. De bliver stadig, i høj grad, filtreret ud, med mindre du selv implementerer kreative løsninger for at undgå det.

I det konkrete tilfælde blev løsningen, at vi maskingererede nogle tekster, som vi lagde i bunden af hver af komponentsiderne. Teksterne var bestemt ikke særlig elegante, men de gjorde at Google nu opfattede siderne som unikke nok til at blive indekseret. Vi undgik Duplicate Content filtreringen, og kunderne kunne nu finde de specifikke komponenter i søgeresultaterne.

Min gode ven på Google var ikke helt vild med den løsning. I princippet strider den mod deres guidelines, da de ikke ønsker at indeksere en masse maskingenereret crap tekster. På den anden side kunne han godt forstå, at vi valgte den løsning, som trods alt også gavnede Googles søgebrugere i det konkrete tilfælde.

Ovenstående er et – ud af mange, gode eksempler på, at Googles systemer nogle gange kan virke uhensigtsmæssige, ja måske ligefrem uretfærdige overfor dig, men ved nærmere eftersyn trods alt giver en vis mening i det store billede.

For over en bred kam er det jo fortsat hensigtsmæssigt at Google laver Duplicate Content filtrering. Det er bare nogle gange, at det rammer indhold, som det ikke burde. Alt i alt er det dog bedre for Google at gøre det, frem for at lide under de meget større kvalitetsproblemer det ville give, slet ikke at lave denne filtrering.

Vores opgave som SEO-eksperter er at vide dette, kende sådanne udfordringer og vide hvordan de bedst kan løses for de enkelte website. Du kan ikke finde egentlig dokumentation på hvad du skal gøre, men må ”nøjes” med den erfaring rådgivere som jeg har oparbejdet gennem mange år.

Nogle gange går det godt, selvom det er skidt

For at gøre forvirringen komplet, så oplever jeg ofte at det som jeg ved kan give problemer i Google helt konkret ikke gør det for alle sites.

Hvis vi tager eksempel med Duplicate Content filtrering igen, så kan du sagtens finde eksempler på websites, som har en masse Duplicate Content, som ikke er filtreret ud af Google.

Jeg forstår godt, at det kan være forvirrende for mine SEO-kunder, og at deres udviklere kan komme til at tvivle på mine SEO-kompetencer, når de ser den slags eksempler.

Men som jeg må forklare dem, så er Google ikke perfekt. De har en ambition om at lave verdens bedste søgemaskine og de har en masse teknologi der skal hjælpe dem med det, men teknologien er på ingen måde ufejlbarlig.

Dertil kommer, at ikke alle filtreringer eksekveres på samme tid. Noget filtrering sker når der crawles, noget når der indekseres, nogle filtreringer (herunder tjek af Duplicate Content) kører som separate og periodiske processer og andre ting filtreres direkte når der søges.

Så når du ser et website med en masse Duplicate Content problemer, som tilsyneladende ikke er ramt af det i Google, så kan det skyldes, at Google bare ikke har fået eksekveret deres Duplicate Content filtrering på lige det site endnu. Men når det så sker en dag, så rammes sitet af det.

De fleste af mine kunder ønsker en stabil og langsigtet holdbar SEO-Strategi. For at opnå det er det vigtigt, at f.eks. Duplicate Content problemer fjernes inden Google opdager dem.

Og det gælder naturligvis ikke bare i forhold til Duplicate Content. Der er masser af både tekniske og indholdsmæssige forhold, som kan give problemer i Google hvis de ikke fikses.

Det kan godt være du kan finde masser af eksempler på sites der tilsyneladende ikke lider under de problemer jeg påpeger – måske også dit eget, men risikoen for at det en dag går galt er bare stor.

Det er lidt ligesom med en landmine – hvis du er heldig ikke at træde på dem er de helt ufarlige. Jeg synes bare det er bedre at få skidtet fjernet, så du kan gå sikkert rundt, uden risiko for at blive ramt, hvis du træder forkert.

Google overdriver ofte hvor meget de kan

Et andet problem er, at Google ofte er en anelse for optimistiske med hensyn til hvad de kan. Et godt eksempel er JavaScript.

Flere og flere websites opbygges i dag med store dele klientbaseret JavaScript, på JavaScript frameworks som (Googles) Angular eller React eller som PWA (progressive Web Applications).

Det kan jeg sådan set godt forstå, for de nye teknologier og frameworks giver mange spændende muligheder for at lave bedre websites. Problemet er bare, at skidtet ikke altid virker i Google. Og måske endnu værre: Det Google siger de kan, og det som faktisk virker ikke altid er det samme.

Google praler ofte af hvor gode de er til at håndtere JavaScript. Men faktum er desværre stadig, at de langt fra er i stand til at håndtere al JavaScript – og det er i alle tilfælde meget ustabilt.

To af de store problemer i forhold til JavaScript er, at Google anvender JavaScript parseren fra Google Chrome version 41 – i modsætning den sikkert meget nyere version du bruger (p.t. bruger jeg en version 66). Det fortæller Google ikke.

Det anden problem er, at Google ikke eksekverer JavaScript med det samme, når de crawler dit website. Det bliver lagt i kø til senere eksekvering. Det skyldes at det er en meget tung opgave at eksekvere JavaScript, i forhold til at fortolke almindelige HTML. Det er måske også derfor, at en del JavaScript aldrig bliver eksekveret af Google.

Konsekvensen af dette er, at de indholdselementer og links som kun udskrives når JavaScript eksekveres slet ikke kan ses af Google. Hvis dit website i høj grad bygger på JavaScript er det naturligvis katastrofalt.

Jeg har haft en del kunder som har meget svært ved at forstå, og acceptere dette. Ikke mindst de kunder der har lavet deres website på Googles JavaScript framework Angular. De forstår ikke, at Google selv kan lave noget, der ikke virker i Google. Men sådan er det desværre.

Jeg skrev sidste år et mere detaljeret indlæg om problemerne med JavaScript hvor jeg også gennemgår en række af de største JavaScript frameworks. Det kan du læse her. Og som du kan se er det paradoksalt nok Googles framework Angular der klarer sig dårligst. Facebooks React klarer sig lidt bedre.

Vi står derfor tilbage med samme udfordring som altid – vi kan ikke helt stole på, at den begrænsede dokumentation for hvad der virker med SEO faktisk er korrekt. Du bliver nødt til at stole på den praktisk erfaring rådgivere som jeg har fået ved blandt andet at lave egne tests og se på dygtige kollegaers resultater.

Google fortæller os ikke alt, og ikke alt de siger er sandt

Google fortæller os ikke alting om hvordan deres søgemaskine fungerer. Det er langt fra alting, der er offentlig dokumentation på. Og det er jo helt naturligt. For hvis de gjorde det ville deres konkurrenter bare kopiere det hele og det ville alt for let kunne misbruges af webmastere, der uberettiget ønsker at ranke bedre.

Der er dog en del ting Google fortæller os om – om end ikke altid i alle detaljer, men nok til at vi kan bruge det. De fortæller os f.eks. uden det store omsvøb, at hastigheden på vores websites er vigtig, at vi skal undgå duplikeret indhold, at de prioriterer mobilt indhold, anbefaler AMP-format og Schema-data og at vi bør skrive gode unikke tekster, side TITLEs og META-beskrivelser til alle sider.

Men de fortæller os ikke alle detaljer om hvordan ovenstående mekanismer fungerer og nogle gange fortæller de os ting, som mest af alt handler om at gøre deres søgemaskine og arbejdet med den lettere – frem for at skaffe flere kunder til os. Fair nok, Google er ikke ansat i din og min virksomhed – deres job er, at lave en god søgemaskine.

Og nogle gange fortæller Google om ændringer, som jeg – med min erfaring, ikke tror på vil holde ved. Et godt eksempel på dette er, da Google i december sidste år annoncerede at de nu ville vise længere META-descriptions – helt op til 320 tegn. Mange gik derfor i gang med det store arbejde at optimere deres META-descriptions til dette længere format. Men jeg gjorde det ikke. Og jeg anbefalede mine kunder at lade være.

Jeg skrev om det i et blogindlæg, som du kan læse her.  

I maj måned har Google så gjort som jeg forudsagde og reduceret længden af META-descriptions igen – og nu skal alle dem, der ikke fulgte mine gode råd så tilbage og redigere alle deres META-descriptions igen.

Hvis bare der fandtes en facitliste – her er de ting som du kan stole på, facts der holder, og her er det du skal tage med et gran salt, så ville alt jo være meget lettere. Men sådan er det bare ikke.

Og det er derfor erfaring med SEO er så forbandet vigtigt, hvis du vil skabe gode og stabile resultater!

Læs også


Kommentarer

Henrik V Blunck   den 29-05-2018 kl. 09:56

Tak for et spændende indspark. Som altid læseværdigt. :-)

Er kommentaren brugbar? 2 0
Mikkel deMib Svendsen   den 29-05-2018 kl. 10:03

Tak, Henrik :-)

Er kommentaren brugbar? 2 0
René Nielsen   den 11-06-2018 kl. 14:17

Godt indlæg.

Er kommentaren brugbar? 2 0
liunaud   den 29-06-2018 kl. 10:19

Godt indspark. Lidt kritisk sans overfor Googles udmeldinger og faktatjek er vejen frem

Er kommentaren brugbar? 2 0
Flemming   den 03-07-2018 kl. 14:22

Du har ret - det kræver en hvis erfaring at håndtere Google og kunne filtrere de rigtige ting fra de udmeldinger mm. de kommer med. Tak for et godt indlæg, og godt set med meta descriptions :-)

Er kommentaren brugbar? 1 0
 

Tilføj en kommentar

 

 
For at holde spammere ude, fortæl os hvad er: to + tre =
Husk Mig

Få besked når der kommenteres (Log ind for at få tilsendt mail)
 

Om denne blog


Få besked når Mikkel skriver


FÅ EN HJEMMESIDE DER VIRKER

Waimea Business - hjemmeside totalløsning

Med Waimea Business får du en samlet hjemmeside løsning 

Priserne starter på under 2.000 kr. pr. md. alt inklusiv!

Det er mindre end de fleste betaler for SEO eller linkbuilding alene. Med Waimea Business får du både det + en teknisk perfekt hjemmeside + professionelt skrevet og optimeret indhold. 

Kontakt os i dag på info@waimea.dk eller ring på 70 22 80 82 og få en uforpligtende snak.

Bedste hilsner,

Mikkel deMib Svendsen
Direktør & Partner, Waimea Digital

Waimea Digital - SEO og Online Marketing Bureau


Mikkel på Twitter

Hvis du vil have besked når Mikkel og ligesindede bloggere har lavet et nyt indlæg, så klik her:


Seneste kommentarer