Google er simpelthen for primitiv. Det handler primært om indgående links, som for 99,999% vedkommende er fabrikerede links. Det er spam af internettet og har intet at gøre med kvalitetsindhold. En søgemaskine burde spore sig ind på eventuelle søgeord ved at kigge på teksten. Derefter bør søgemaskinen give rankings indenfor XX søgeord, som den ønsker at teste for. Det kunne være 1000 besøg for at give et grundlag at bedømme ud fra fordelt på 10 kategorier. Derefter får søgemaskinen et talmateriale at arbejde med, som f.eks. kan være: XX søgeord betyder, at brugeren er XX tid på sitet og læser XX sider. Når søgemaskinen så har fundet ud af, at brugerne på sitet er længst tid indenfor kategorien XX, så kan søgemaskinen begynde at eksperimentere med underkategorier nedenunder. Det vil gøre, at søgemaskinen har mulighed for at give trafik som passer til sitet og ikke som nu bare vælge, at fordi et site om boremaskiner har en artikel om en far der gør tingene selv i weekenden får trafik om weekendfædre. Som det fungerer nu, så giver google traffik på ordet weekendfædre. Da sitet ikke handler om weekendfædre, så er der en høj abandonrate og google nedgraderer stedet generelt, hvilket betyder, at der ALDRIG kommer traffik fra boremaskiner som sitet egentlig handler om. Jo, hvis man bygger links - links som ingen læser! Google - det er en ommer! Det her pis kan gøres bedre! |
Hvis det er så simpelt, hvorfor laver du så ik en konkurrent til Google?
PS du mangler sikkert alt det data, som du beskriver i din case. Hvordan du vil skaffe det, det er og bliver en gåde for mig...