... Kan ikke beslutte om det skader eller ej, hvad tror eller ved i?
Jeg ved ikke, hvordan Google helt præcist håndterer den slags. Men jeg tror på, at man når længst ved at bruge elementerne til det, som de er skabt til. Det er muligt, at Google m.fl. i en kort periode vil "belønne" alternative måder at benytte HTML-elementer på, men jeg tror samtidigt at det er en stakket frist (hvis det da overhovedet har en positiv effekt på noget som helst).
Gennem længere tid har jeg selv arbejdet på udviklingen af nogle crawlerværktøjer, og processen har lært mig, hvor stort et arbejde det er at tage højde for de mange aspekter, der faktisk skal tages højde for, når man har med crawlere at gøre.
Siden lanceringen, for snart 3 uger siden, har mine crawlerværktøjer indhentet data fra en lang række websider, og en ting er helt sikkert - webudviklere koder MEGET forskelligt (og langt fra altid hensigtsmæssigt). Når jeg ser på de forskellige websiders kildedata, så laves der mange "finurlige krumspring" og fundamentale kodefejl i HTML'en (nogle værre end andre).
Omtalte kodefejl kan i værste fald gøre, at crawlerne "overser" dele af eller hele sektioner af teksten på en webside. Dermed går vigtig tekst tabt, for ikke at tale om at vigtige nøgleord helt forsvinder ud af crawlerens synsfelt - i så fald er det et kæmpe problem i forhold til søgemaskineoptimering.
Jeg er overbevist om at Google m.fl. er i stand til at håndtere de fleste HTML-småfejl (de har trods alt haft mange år til at finpudse deres bots og udvikle deres fejlhåndteringsprocesser). Men når en crawler skal hente data fra så mange forskellige typer af websider, så bliver udvikleren bag før eller siden nødt til at forholde sig til en eller anden form for standardisering.
Derfor tror jeg, at Google som udgangspunkt har valgt at følge W3C's standarder (for gyldig HTML/markup), og så har de hen ad vejen indbygget en vis fejltolerance, som tillader en defineret mængde småfejl i HTML'en (jeg har gjort lidt af det samme med mine crawlere). Alle crawlere (også Google's) har indbygget en form for fejltolerance. Der, hvor fejltolerancen ophører, begynder begrænsningerne for, hvad der er hensigtsmæssigt og hvad der ikke er.
Min pointe er: To titler på én webside giver ingen mening i forhold til hverken W3C's HTML-standarder, og det giver heller ingen mening i forhold til søgemaskineoptimering. Hvorfor skulle Google's crawler have en indbygget tolerance overfor to titel-elementer på den samme webside?
Jeg kan i hvert fald ikke se formålet med de to titel-elementer, og derfor kan jeg heller ikke se, at det på nogen måde skulle kunne give en fordel.
Det blev lidt halvlangt det her. Jeg håber, at jeg ikke tabte dig undervejs ;o)