Jeg har et forslag til, hvordan søgemaskinerne får en bedre kategorisering:
Crawleren skal ikke søge på hele nettet. Kun de sites, der er blevet tilmeldt. Ved tilmelding skal sites godkendes af en person.
Det vil betyde, at vi slipper for alle de åndsvage affiliate sites, irriterende blogs og latterlige artikeldatabaser. Søgningen kan fokusere på de rigtige web-sites og kun foretage søgninger af sites med en vis kvalitet.
Ud ryger 9/19 af internettets bras og resten bliver nemmere tilgængeligt.
Problemet er så bare, hvordan man kommer hen til det punkt, hvor man har tilstrækkeligt mange sider indekseret, så man har noget at byde brugerne på. Se det er et problem... :)
Hvad med at lave et add-on til Google? Altså ikke udvikle din egen søgemaskine, men lave en aaplikation, som brugeren downloader til sin computer, og som baserer sig på Googles arkiver, servere, mv.?
Netop dét med at personificere sine søgninger kunne man gøre meget nemmere for brugeren, og man kunne måske endda kombinere det med en facebook add-on, så man nemt kunne dele søgninger med sine venner.
Jeg har for mange år siden haft en idé om netop at lave en sådan applikation, og har mange detaljerede idéer til, hvordan det burde laves.
Ud ryger 9/19 af internettets bras og resten bliver nemmere tilgængeligt.
Problemet er så bare, hvordan man kommer hen til det punkt, hvor man har tilstrækkeligt mange sider indekseret, så man har noget at byde brugerne på. Se det er et problem... :)
Nu snakker du ikke søgemaskine mere, nu snakker du et stort link katalog som dmoz.
Det store problem ud over det du nævner er også at indholdet ikke bliver opdateret, og at det kræver mange mandetimer.
Hvordan laver jeg en søgemaskine der er bedre end google? :-)
Hvad med at lave et add-on til Google? Altså ikke udvikle din egen søgemaskine, men lave en aaplikation, som brugeren downloader til sin computer, og som baserer sig på Googles arkiver, servere, mv.?
Du mener at lave en søgemaskine baseret på Google !
Den går ikke, og der er heller ikke meget konkurrent over det hehe
Prøv engang at lave en tilfældig søgning og tryk på næste RIGTIG hurtigt omkring 20 gange i træk. Så lukker de dig ned fordi de tror du er en robot der henter resultater fra dem.
Prøv engang at lave en tilfældig søgning og tryk på næste RIGTIG hurtigt omkring 20 gange i træk. Så lukker de dig ned fordi de tror du er en robot der henter resultater fra dem.
Søgningen ville jo stadig komme fra brugeren, så der ville ikke være nogen forskel fra de brugere, som anvender Google i dag.
Jeg er dog slet ikke i tvivl om, at næste skridt indenfor søgemaskiner er, hvor brugere logger ind i et program, og på den måde tilbyder brugeren nogle meget personificerede søgninger.
Google roder jo allerede med det, men er blevet så store, at de ikke er fleksible nok.
Ud ryger 9/19 af internettets bras og resten bliver nemmere tilgængeligt.
Problemet er så bare, hvordan man kommer hen til det punkt, hvor man har tilstrækkeligt mange sider indekseret, så man har noget at byde brugerne på. Se det er et problem... :)
Nu snakker du ikke søgemaskine mere, nu snakker du et stort link katalog som dmoz.
Det store problem ud over det du nævner er også at indholdet ikke bliver opdateret, og at det kræver mange mandetimer.
Nej, du misforstår. Jeg taler ikke om en linkdatabase.
Der skal stadigvæk være en crawler og indeksering. Den skal bare KUN crawle de sider, der bliver godkendt. Forestil dig google, der kun søger på sites, der først er blevet manuelt udvalgt.
... Der skal stadigvæk være en crawler og indeksering. Den skal bare KUN crawle de sider, der bliver godkendt. Forestil dig google, der kun søger på sites, der først er blevet manuelt udvalgt.
Jeg kan egentlig godt lide tanken (rigtig godt endda), men forestil dig, hvor mange redaktører det vil kræve at skulle godkende de milliarder af websider, der skal til.
Det er netop det, som DMOZ har forsøgt gennem årene (de har også en crawler), men trods et hav af redaktører er DMOZ langt fra fuldendt (heller ikke i forhold til kvalitet og redaktører).
Min tanke er at, hvis man skal stille noget af værdi op mod Google, så skal man fokusere på nogle populære nicher - altså producere en række søgemaskiner, som godt nok dækker mindre områder, men som til gengæld gør det bedre end Google på netop de områder.
Din linkguide til steder på nettet med viden, information og ressourcer
Din idé er allerede udviklet - i hvert fald hvis jeg forstår din idé rigtigt; Blekko
Og de har sørme også fået VC - Man kan ikke starte en søgemaskine nu om dage, der skal konkurrere med Google, uden at få noget kapital. Medmindre man selv er millionær i forvejen.
Internettet har udviklet sig så meget siden Google startede, at man skal starte på et meget højere niveau end de skulle tilbage i 1996-1998 :-)