Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE

The invisible net - søgemaskiner

Side 1 ud af 5 (48 indlæg)
Tilmeldt 29. Nov 06
Indlæg ialt: 70
Skrevet kl. 21:48
Hvor mange stjerner giver du? :

Søgemaskiner og markedsføring i disse.


Som udgangspunkt er vi alle jo i den situation, at vi Googler på livet løs, dette gælder både brugere og søgemaskinefolket som ønsker at skabe toppositioner og leads til deres kunder.
Men er Google nu det eneste ene, når det gælder informationssøgning på nettet?
Spurgte i mig for år tilbage ville jeg klart svare, den havde noget af det bedste potentiale på markedet.
Jeg vil vove det ene øje her, og sige the invisible net ( usynlige sider ) er begyndt at opstå og bliver større og større. Det betyder i praksis, at meget relevant viden ikke er at finde for brugeren, grundene hertil kan være mange, søgemaskinernes politik og side kvalitets krav, regler for sammensætning af kodning mv. men faktum er, at du og jeg ikke kan finde de informationer vi reelt ønsker og burde have krav på når vi bruger en kolos som Google.


Det kunne godt være tale om f.eks. forskning indenfor medicinindustri ol. der måske kunne gavne kollegaer andre stede i Verden, hvis man nu lige kunne finde disse informationer på nettet - og de ikke lige lå i et supplerende index eller ikke var, at finde på den mest foretrukne søgemaskine fordi quality guidelines ikke lige var ok ( mange sites i forskningsmiljøer er ikke de kønneste ) men indeholder til gengæld guldkorn i stor stil.


Søgemaskiner skal skaffe relevante resultater, reelt er det ligegyldigt om det er store kommercielle virksomheder der er tale om eller små virksomheder, der bare har varen. I praksis er det jo altid sådan, at den der har pengene skaffer den fornødne markedsføring og dermed bedre reklame, det kan der ikke ændres ret meget på. Men ved at begrænse stille større og større krav til sine index, kan der nemt opstå et vakuum der gør at relevant information ikke er tilgængeligt på de traditionelle søgemaskiner, men at brugere i al almindelighed skal bruge andre databaser til at hente sine informationer, hvilket betyder den måde vi er vant til at søge på drastisk vil ændres over tid.


Nu vil mine kolleger i branchen nok sige ”det løser vi” Ja for f….. det gør vi, og rigtigt godt, men her skal vi tænke på, at ikke alle virksomheder ved hvad søgemaskineoptimering er og der er ligeledes det samme vakuum i andre lande, måske endda næsten større. Jeg tror personligt ikke der er ret mange webdesignere der læser søgemaskinernes guidelines, hvis vi ser på verdensplan og dagligt følger med eller slår op på alverdens søgemaskine fora og f.eks. Matt Cutts blok, for lige, at finde ud af hvad Google lige i dag har fundet ud er bedst for Verden, og hvor det ændres igen om fjorten dage, når lappeløsninger på specifikke probler opstår – igen se f.eks. de tags der skulle indgå i link på forskellige bloks, som skulle forhindre back linkning, hvordan er det lige gået med disse ????. Hvor mange bruger dem, hvor mange er klar over de er der, og hvad er konsekvensen af ikke at bruge dem ??? Ja nogle kender allerede svaret, det virkede ikke helt, men det kommer måske.


Google er jo heller ikke så intelligent som den gerne selv vil gøre sig til, det er jo ikke et halt år siden der var en der næsten havde fyldt det halve af Googles index op med sine sider før det blev opdaget, og ja jeg kan dokumentere mange huller, der stadig er i deres system. ( Dem tager vi en anden gang, ved en festlig lejlighed ) de er åbne endnu!!!!


Forestil jer tanken om, der måske er 1.000.000.000 websider der af en eller anden grund er usynlige på nettet, der kunne jo reelt ligge viden til mangt og meget.


Ja, hvad er bedst for informationssøgningen i fremtiden ???


Nogle spændende tanker en mandag.




Med venli

Wececureit René
Fra DK- Struer
Tilmeldt 26. Dec 06
Indlæg ialt: 2831
Fra  Ifindu.dk Skrevet kl. 23:47
Hvor mange stjerner giver du? :
Dato: 22-05-2007 21:47:43 Forfatter:Wesecureit-Tekniker
Nogle spændende tanker en mandag.


JA - bortset fra at det er tirsdag i dag........

Ja fremtiden vil bringe index''s samlet efter indhold så f.eks

sex kan findes et sted,
medicin et andet
sport et tredie
osv.

og med mindre robotterne bliver mere "intelligente" vil der være index''s som
bliver overvåget af personer, således at indhold holdes relevant og lødigt.

Hvis Jubii havde holdt sig i sporet - havde de nok haft en rennaisance dér

Google vil jeg tro drukner i sin egen succes, med mindre de finder midler til at
splitte deres indholds-index''s op i "faner" så skæg kommer for sig og snot for sig.


Få hjælp til at det tekniske omkring Web og Grafisk -  https://icode.dk

Tilmeldt 29. Nov 06
Indlæg ialt: 70
Skrevet kl. 00:16
Hvor mange stjerner giver du? :

Ja, artiklen er skrevet mandag, men kom ikke ud ligesom avisen he he. beklager



Det mest spændende er om fokus vil flyttes til mindre specialiserede fora, hvor der typisk vil kunne hentes den information der ønskes for brugerne, alternativt vil mange værdifulde websites, her taler jeg om sider der ikke specifikt bruger søgemaskineoptimering som våben, men lever ud fra professoren eller folk fra det videnskabelige fakultet der skriver og ytrer sig om viden som ønskes delt med andre, disse sider vil f.eks. i dag kunne findes på Google ved søgning på specifik søgeterm, men om en uge når specialisten skal finde siden igen er den væk fra søgemaskinerne. ( Vidensdeling der lige gik tabt ) og det kan meget vel skabe nye situationer inden for søgninger som vi ikke kender i dag. Derfor er mine tanker mere på det overordnede plan, hvad kan vi forvente, hvilken krav stiller brugerne, når alle snart har lært at Google, forhåbentligt stiller brugerne nogle krav.


Jeg ved det jeg skriver her er alle nok ikke enige i.  Det skal ud alligevel – Efter min mening er Google ligeglad med venstreside resultatlisten – De er en kommerciel søgetjeneste der høvler penge ind på adwords og renser lidt op i ny og næ på søgemaskinen for at sige de gør noget, men se omkring på verdensplan, hvor meget af det de selv kalder søgemaskinespam der egentlig ligger i deres index – spilsider – pornosider, ja og alle mulige andre sider, så snart et hul er lukket er der et nyt åbent, spændende og udfordrende. Men venstre side resultaterne er et nødvendigt onde, for ellers ville forretningsmodellen ikke være så lukrativ.


Ja, de prøver endda at opsætte quality score på deres kampagner, ved simpel cloaking af deres bot, finder den det indhold den gerne vil se og sænker prisen – kald det intelligent værktøj.


Med venlig hilsen
Wesecureit


René


Wececureit René
Fra Roskilde
Tilmeldt 30. Jul 06
Indlæg ialt: 2298
Skrevet kl. 09:16
Hvor mange stjerner giver du? :
Nogle spændende tanker en mandag.

Tanker er det ihvertfald...

Hvad er budskabet, og hvilken løsning forslår du til os?

Tilmeldt 29. Nov 06
Indlæg ialt: 70
Skrevet kl. 11:46
Hvor mange stjerner giver du? :

Men det er jo som sagt på et overordnet plan tankerne går og jeg tror ikke der er en overordnet problemløsning på disse scenarier, men det er klart efter min opfattelse at der åbnes op for nye vinkler til markedsføringen på nettet.


Men et er søgemaskinernes kamp mod det de selv betragter som spam og som også kan skabe problemer for almindelige websites.


Nu springer der nok en bombe


Der er ikke ret mange, det gælder også SEO firmaer der ved, hvordan Google filtre ser ud i virkeligheden, men vi lader det sive alligevel.


Verdens største søgemaskine kæmper med det de selv kalder søgemaskinespam og udvikler algoritmer der kan finde ud af løsne den gordiske knude, men faktum er noget helt andet.


GOOGLE - Mange af søgemaskinens filtre er mennesker.


Google quality team opererer bla. ud fra en ISP på denne adresse.


Unit 4029 National Digital Park, CityWest Business Campus Naas Road, Co. Dublin, Ireland


Google sandbox team eller quality gutter holder til i Dublin Irland, ud fra denne adresse som er ISP for dem, hvorfra meget af det såkaldte filtrering foregår, og det er top teknologi udstyret med to øjne og arme og ben, der er robotter her, siddende og afkrydse ratings skemaer for websites.


Ja 100 punkt algoritmer -  Ja verden vil bedrages og bliver det.


Sidder faktisk med en annonce fra tidligere, hvor Google søger kvalitets redaktører til denne opgave i forskellige lande til 20 USD i timen. Bevares der er selvfølgelig indbygget robotfiltreringer på søgemaskinen, men den kan ikke se det den gerne vil fortælle sit publikum, der er lang vej til kunstig intelligens som det tit påpeges.


Hvordan finder vi så ud af sådan noget, jo ved hjælp af logfilsanalyser og sammenkøringer af data som fortæller bevægelser på domæner og deres adfærd. hvilket betyder, at al unormal aktivitet danner mønstre som kan bruges til identificering af disse tiltag uanset om man er en kolos eller et mindre websted.


En anden indfaldsvinkel på Søgestrategier.


Vi har været inviteret og deltaget i to Microsoft Search seminarer i København de sidste måneder, på det sidste seminar deltog  Steve Ballmer Microsofts topchef – og de gør sig nogle spændende tanker netop indenfor Search teknologier, med opdelinger af forskellig karakterer, herunder søgninger på lokalmaskine, intranet, partnernetværk og Internettet en spændende tankemåde - Det er så spørgsmålet om de er kommet i gang i tide eller konkurrencen er blevet for stor, men det er da godt der er nogen der tænker tanker, og bringer nye indfaldsvinkler på banen, det sætter så til gengæld os SEO folk på nye opgaver, men sådan har det altid været, og det er jo det der i grunden driver lysten til netop denne branche, hvor netop omvæltninger kan få en op af stolen og se nye muligheder i stedet for begrænsninger.


 Med venlig hilsen


Wesecureit


René


Wececureit René
Fra Sorø
Tilmeldt 20. Dec 06
Indlæg ialt: 21
Skrevet kl. 09:44
Hvor mange stjerner giver du? :
Så det du siger er, at Google har opgivet at styrer deres placeringer via deres algoritme - og nu supplerer med "hands-on-jobs" for at sikrer sig kvalitet i deres indeks?

 

 


 

Fra Lyngby
Tilmeldt 26. Mar 05
Indlæg ialt: 9738
Fra  DEMIB HOLDINGS ApS Waimea Digital Skrevet kl. 10:54
Hvor mange stjerner giver du? :
Jeg synes der blandes en hel masse lettere forvrøvlet ammestuesnak ind i denne tråd. Lad mig tage det fra en ende af og rette lidt op på forvirringen ....


  1. The Invisible Web
    Min gode ven Chris Sherman skrev for flere år siden en bog med denne titel, hvori han beskriver "de usynlige web" - alle de data på Nettet, som p.t. er utilgængelige for søgemaskinerne. Men, at snakke om "sider" i forhold til denne type data er noget vrøvl. Hvor mange sider har en database? Hvor mange sider har f.eks. Google.com? Svaret er, lige så mange sider som der laves forespørgsler. Siderne er dynamiske, data sammensættes, og siderne skabes ud fra det som der forespørges på.

    Søgemaskinerne vil gerne have adgang til denne data, og de har i mange år arbejdet på løsninger der vil sikre en mere fuldstændig indeksering af alle Nettets informationer. Teknikere fra Google der arbejder med dette har tidligere udtalt, at de regner med at have den nødvendige teknologi klar til dette om ca. 50 år. Ja, det er bestenmt ingen simpel opgave - og det har det aldrig været.

  2. Maskiner og mennesker
    Google''s hovedansvarlige for styringen af kvalitet sidder i USA. De har så en masse redaktører sideende rundt omkring - herunder Dublin, men det er bestemt ikke det eneste sted! Disse redaktører redigerer stort set ikke i indekset, men hjælper det tekniske team i USA med at identificerer uheldige mønstre på nettet og i deres indeks, som de så efterfølgende kan bruge til at skabe nye justeringer af deres crawling, filtreringer, indeksering og ranking algoritmer. Der findes intet "Google sandox team"! Det er simpelt hen noget vrøvl.

    Der forekommer naturligvis enkelte "handjobs", men for Googles vedkommende er det ekstremt lidt. Langt det meste løses algoritmisk. Yahoo har, i modsætning til Google, en længere tradition for en højere grad af hånd-justering, der stammer tilbage fra deres baggrund i katalogverden.

  3. Googles fokus
    Omend jeg også sagtens kan være kritisk overfor Google, og ofte er det, så synes jeg det er helt ude i hampen at påstå at Google ingen interesse har I de organiske resultater. Intet kunne være mere forkert. Naturligvis er det reklamerne der skaber indtægterne, men det er ikke anderledes end for en avise som f.eks. New York Time. Men at konkludere at NYT eller Google derfor ikke interesserer sig for det redationelle indhold er ubegrundet og forvrøvlet.

    Det er også meget tydeligt at se på Googles forskellige tekniske løsninger. Tjek deres søgemaskiner, og tjek så bagefter f.eks. AdWords administrationen. Hvor kører teknikken bedst og hurtigst? Jeps, det er på søgemaskinen. Det er nemlig her langt de fleste teknikere sidder og her der arbejdes mest med at sikre en god kvalitet og en hurtig søgning.


Der er som sagt masser af gode grunde til være kritisk overfor Google - jeg synes bare ikke jeg kan finde en eneste af disse grunde i oplæget til denne tråd. Det virker mest af alt på mig som en gang indeklemt forvirret paranoia.


Fra København
Tilmeldt 12. Apr 07
Indlæg ialt: 61
Skrevet kl. 11:38
Hvor mange stjerner giver du? :
Dato: 24-05-2007 09:44:11 Forfatter: DL-vin.dk
Så det du siger er, at Google har opgivet at styrer deres placeringer via deres algoritme - og nu supplerer med ''hands-on-jobs'' for at sikrer sig kvalitet i deres indeks?






 

Det er den sjoveste påstand jeg har læst på amino

Google har indekseret minimum 16 milliarder sider og der kommer vel minimum en ekstra million sider på om dagen, så mon ikke Google ville have svært ved at få set ret mange af dem igennem , selv hvis de ansatte halvdelen af Irlands befolkning?

 

Google har ikke en gang mandskab nok til at se de sider igennem der bliver anmeldt for at overtræde deres regler, og mit gæt er at de heller aldrig får det

Fra Århus
Tilmeldt 10. Feb 06
Indlæg ialt: 1415
Fra  Deskways ApS Heydesk ApS Skrevet kl. 12:40
Hvor mange stjerner giver du? :
Ja, at påstå Google ikke går op i de organiske søgeresultater er noget ved siden af!
De organiske søgeresultater er ret så vigtige, da Google har en interesse i at vise de bedste resultater uanset hvad! Hvorfor? Jamen, hvis Google ikke er en god søgemaskine hele vejen igennem - hvorfor skulle annoncører så bruge penge på den sponsorerede del? Hvorfor så bruge lønomkostninger på folk som Adam Lasnik (som jeg synes er utrolig dygtig) og ikke mindst Matt Cutts? Hvorfor skulle et så stort brand og en så god forretning skyde sig selv i foden og kun fokusere på algoritmerne bag AdWords? Hvorfor så gå op i alt det med links (som de gør pt.)? Der er for mange spørgsmål som på ingen måde kan støtte din påstand :)

/Marcel Fuursted

Heydesk - kontorlokaler og mødelokaler over hele verdenen

Tilmeldt 29. Nov 06
Indlæg ialt: 70
Skrevet kl. 14:55
Hvor mange stjerner giver du? :

Det er godt der kommer flere indfaldsvinkler på denne tråd.


Nej vi er ikke Paranoide eller på piller Mikkel
 

Mikkel, som gammel Cloaker kender du mønstret på sites, der bliver pillet ud af søgemaskinen Google og blacklistet, og det er ikke automatiske processer der foregår her, hvis sitet er fremstillet korrekt, det er helt sikkert, jeg vil gerne gennemgå det med dig via PM, hvis det kunne have interesse, men ikke Public – IP ranges som der opereres fra har du sikkert også selv identificeret og kender sikkert også mønstret på disse.

Mine erfaringer er, at der altid er IP adresser fra Dublin involveret når et sitet tages ud af Google – jeg har også kørt logfils test på et sites som vi ikke havde optimeret – ( det var der en anden kollega i branchen der havde) og her var der tale om et lignende reaktionsmønster og samme fremgangsmåde og samme IPér indgår.


Mikkel jeg vil godt vædde en stor kold fadøl i Nyhavn på, hvis du tager en logfil fra et af de domæner du har fået blacklistet, kan jeg fortælle dig, reaktionsmønstret helt op til det tidspunkt, hvor det ryger, hvilken IPér der er involveret, hvor forespørgslerne kommer fra, hvordan der spørges osv.  




Jo Google er en god søgemaskine, ingen tvivl om det.


Faktum er at deres indtægtskilde er reklamedelen, man er samtidig afhængig af at have relevante sider i sit index og dermed brugere nok, derfor er der knyttet dygtige folk til denne del, og de arbejder så med forskellige tiltag her – det er faktisk først fra september / oktober 2006 de rigtig tog fat på oprydning i Danmark, før denne tid kunne de fleste sites af forskellig art performe, næsten uanset, hvad der var gjort ved dem.


Men problemet er, at filtrerer man for kraftigt og sker der en automatisk filtrering af en eller anden art, der går lidt ud over det sædvanlige, ryger der mange flere sider der reelt var ok og dermed er slutfacit ikke det forventede.


Er resultaterne så blevet bedre ? 


Det er så det åbne spørgsmål efter denne oprydning, alle SEO firmaer kender til fænomenet, men er kvaliteten blevet bedre nu ?


Men søgemaskinerne har jo ikke nogen interesse i at f.eks. SEO firmaer via optimering ( manipulation ) kan sælge eller styre noget på deres søgemaskine, hos kunder de måske tilsvarende kunne tjene flere penge på i adwords.


Jeg ved godt Verden ikke er hverken sort eller hvid, men tanken kunne godt falde en en.


Men et eksempel!  Mikkel eller Wesecureit fremstiller et cloked site indenfor rejsebranchen efter alle kunsten regler, her vil levetiden være relativ kort? -  hvorfor kunne man spørge? Her er priserne på Adwords høje – et stort fokusområde og et område der ses igennem tit. Men fremstilles et tilsvarende cloaked sitet inden for f.eks. bager branchen vil levetiden være meget lang. 


Eksemplerne inden for specielt rejser, der ser man, at de sites der typisk kommer ind og ligger i top og popper op i ny og næ, uden at være det egentlige brand har en kort levetid her. Hvorimod der indenfor andre brancher ikke er så meget fokus og siderne tilsvarende ( undskyld udtrykket skodsider ) får lov at blive uden problemer.




 Det usynlige net


Det usynlige net, ja faktum er at der i dag er mange sites netop inden for den medicinske forskning der kommunikeres ud, ikke er at finde på Verdens største søgemaskine, de vises i starten og af en eller anden grund, sikkert filtreret fra og dermed ikke tilgængelige for brugerne mere ( viden der ikke er tilgængelig ) – der vil opstå disse situationer indenfor stort set alle brancher, hvor lignende kan forekomme i takt med at søgemaskinerne stiller større og større krav til kvaliteten på websites og hvor mange brugere i disse miljøer ikke kender noget til guidelines for søg

Wececureit René
Side 1 ud af 5 (48 indlæg)