... Der skal stadigvæk være en crawler og indeksering. Den skal bare KUN crawle de sider, der bliver godkendt. Forestil dig google, der kun søger på sites, der først er blevet manuelt udvalgt.
Jeg kan egentlig godt lide tanken (rigtig godt endda), men forestil dig, hvor mange redaktører det vil kræve at skulle godkende de milliarder af websider, der skal til.
Det er netop det, som DMOZ har forsøgt gennem årene (de har også en crawler), men trods et hav af redaktører er DMOZ langt fra fuldendt (heller ikke i forhold til kvalitet og redaktører).
Min tanke er at, hvis man skal stille noget af værdi op mod Google, så skal man fokusere på nogle populære nicher - altså producere en række søgemaskiner, som godt nok dækker mindre områder, men som til gengæld gør det bedre end Google på netop de områder.
Din linkguide til steder på nettet med viden, information og ressourcer
Din idé er allerede udviklet - i hvert fald hvis jeg forstår din idé rigtigt; Blekko
Og de har sørme også fået VC - Man kan ikke starte en søgemaskine nu om dage, der skal konkurrere med Google, uden at få noget kapital. Medmindre man selv er millionær i forvejen.
Internettet har udviklet sig så meget siden Google startede, at man skal starte på et meget højere niveau end de skulle tilbage i 1996-1998 :-)
....men forestil dig, hvor mange redaktører det vil kræve at skulle godkende de milliarder af websider, der skal til....
Det er netop dét, alle brugerne gør via deres færden og via aktive handlinger.
Sider de kun besøger én eller få gange indekseres ikke højt, mens sider som ofte besøges får højere vurdering.
Derudover kan brugeren dele/anbefale sider til venner.
Det er netop den del, der ikke fungerer for google. De ser en stemme som en stemme. Problemet er, at de stemmer er manipuleret mere end et politisk valg i Nordkorea. Dermed får du en lang række junk op, fordi det junk har stemt på hinanden.
Det er lige meget, om du hopper med på bølgen og kobler de sociale netværk på. Jeg kan lave 1000 profiler på et par dage på facebook med lækre tøser, der får tonsvis af venner fordi de ser godt ud. De her 1000 profiler bliver sjovt nok ved med at anbefale de samme sites (som jeg udvælger). Du hopper i med begge ben og besøger disse sites, fordi mine kloner (tøseprofiler) anbefaler dem og du gerne vil i nærkontakt.
Udfordringen ved at udvikle en bedre søgemaskine må være, at få hevet 9/10 af alle sites væk fra hylderne og smidt dem i skraldebøtten. Det er alle affiliate-sites, artikeldatabaser og andet lort der hober sig op på internettet.
... Der skal stadigvæk være en crawler og indeksering. Den skal bare KUN crawle de sider, der bliver godkendt. Forestil dig google, der kun søger på sites, der først er blevet manuelt udvalgt.
Jeg kan egentlig godt lide tanken (rigtig godt endda), men forestil dig, hvor mange redaktører det vil kræve at skulle godkende de milliarder af websider, der skal til.
Det er netop det, som DMOZ har forsøgt gennem årene (de har også en crawler), men trods et hav af redaktører er DMOZ langt fra fuldendt (heller ikke i forhold til kvalitet og redaktører).
Min tanke er at, hvis man skal stille noget af værdi op mod Google, så skal man fokusere på nogle populære nicher - altså producere en række søgemaskiner, som godt nok dækker mindre områder, men som til gengæld gør det bedre end Google på netop de områder.
Det giver mening, at starte med et område, fordi man så kan afdække den manuelle del hurtigere. Man kunne begrænse sig både geografisk og på område, men det er stadigvæk et monsterprojekt :)
Det er netop den del, der ikke fungerer for google. De ser en stemme som en stemme. Problemet er, at de stemmer er manipuleret mere end et politisk valg i Nordkorea. Dermed får du en lang række junk op, fordi det junk har stemt på hinanden.
Jeg mener ikke, at brugerne skal stemme på siderne. Søgeresultaterne skal rankes efter hvordan brugerne færdes på siderne.
Reelt aktive websites vil ranke højere end passive sites, og kunstigt aktive websites kan i en rimelig høj grad gennemskues. Selvfølgelig kan alt manipuleres, men hvis det kombineres med grundtanken fra SpamFighter, hvor brugerne selv sorterer skidt fra kanel, så kan man faktisk ende op med et rigtig godt søgeresultat uden særlig meget spam og forkerte søgninger.
Det giver mening, at starte med et område, fordi man så kan afdække den manuelle del hurtigere. Man kunne begrænse sig både geografisk og på område, men det er stadigvæk et monsterprojekt :)
Det vil være for omfattende at starte et projekt, hvor virksomheden selv skal levere manuel indeksering. Dén tid er forbi.