Med hensyn til hvor man vælger at tage data fra, så kan man enten gøre det fra brugeren eller fra sitet. Min tanke var, at man skulle tage data fra sitet, da det ville give et bedre statistisk grundlag.
Tre problemer med den loesning:
1: Nu skal du ikke bare lave en search engine. Nu skal du ogsaa have resten af
internettet til aktivt at signe op til din search engine, og rette deres
website til saa det kan sende data til din search engine.
2: Mange websites betragter information om deres besoegende, inklusiv hvem de er og hvad de laver som privat information de ikke vil dele.
3: Sites snyder. Saa naar du spoerger dem, har de allesammen 100.000.000 brugerer, som allesammen er meget glade for dem, og som surfer rundt i timevis. Det er rigtigt at der ogsaa snydes en smule med
Google i form af
seo sider og lignende, men google system goer at det i de fleste tilfaelde ikke har den store effekt, fordi de fleste
links er "korrekt information". Hvis du spoerger websites direkte kan du regne med at faar du 100% forkert information, fordi de ikke har nogle interesse i sandheden).
Hvad havde du i oevrigt taenkt dig at goere med nye sites? Hvis du placere dem i toppen, vil du i mange tilifaelde give brugeren en daarlig oplevelse da de fleste sites ikke er saerligt brugbare naar de er nye. Hvis du placere dem i bunden, er der aldrig nogle der ser dem, og dermed vil de blive i bunden for altid.
Hvis man skal lave noget baseret direkte paa bruger handlinger, saa skal man nok have et system hvor hver enkelt brugerer aktivt skal have mulighed for at tagge websites med keywords, og saa vurdere dem op/ned. Men saa ender du men en search engine, som kun har ganske faa % af internettet indekseret, men som alligevel i visse tilfaelde ville give bedre resultater end google fordi den var lavet manualt.