Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE

Hvordan undgår du at blive blocked på din IP ved SERP målinger?

Side 1 ud af 1 (9 indlæg)
  • 1
Fra Viby J, Århus
Tilmeldt 10. Oct 08
Indlæg ialt: 631
Fra  Søgemedier A/S Skrevet kl. 19:03
Hvor mange stjerner giver du? :

Jeg bruger i dag blandt andet IPB http://www.ibusinesspromoter.com/ til at måle mine kunders websites placeringer i søgeresultaterne på google.dk.

Desværre bliver jeg dagligt blokket i IBP på min IP, også selvom jeg har sat feks et 10 sek interval imellem hvert ping.

Bl.a. derfor har jeg fået en programmør til snarest at udvikle et 'SERP program', som kan indstilles til hvad jeg end lyster (feks et random interval på 3-15 sek imellem hvert ping - human emulation), men om det permanent løser problemet tror jeg egentlig ikke.
Proxy server har også været diskuteret, men det var vist heller ikke løsningen.


Min programmør fortæller mig så at via en Google API key kan man pinge google 100 gange om dagen, men det er alt for lidt. Jeg har i snit mindst 10 websites, som skal måles på hver dag. Næste dag er det 10 andre URL'er, og såfremdeles. Hvert websites skal måles på ca 40 sætninger / ord, og gerne fra placering 1-30 på google.dk.

Nogle bud på en holdbar løsning, som gør at man ikke bliver blokket på sin IP?

Hvad gør i andre, som også har behov for høj volumen af målinger?

Softwaren skal desuden have samme projekt/kundedatabase, da der er ca 10 forskellige medarbejdere, som arbejder med de samme kunder/websites. Det taler for en browserbaseret løsning, men min programmør foretrækker at det program han udvikler til mig skal køre lokalt, og så med en database der hostes ude i skyen.

Nu skal jeg passe på, men jeg vil næsten gå så langt som at sige, at money is not an issue i denne sammenhæng. Jeg skal blot have en løsning der fungerer 100%.

Tilmeldt 12. Oct 10
Indlæg ialt: 540
Skrevet kl. 12:45
Hvor mange stjerner giver du? :

kan du ikke bare bruge denne??

Fra København NV
Tilmeldt 22. Apr 11
Indlæg ialt: 17
Skrevet kl. 09:19
Hvor mange stjerner giver du? :

Hey Thomas

Det 'SERP program' lyder som en web scraber. Og det skal du passe på med,  Google's TOS forbyder specifikt web scrabers.

5.3 You agree not to access (or attempt to access) any of the Services by any means other than through the interface that is provided by Google, unless you have been specifically allowed to do so in a separate agreement with Google. You specifically agree not to access (or attempt to access) any of the Services through any automated means (including use of scripts or web crawlers) and shall ensure that you comply with the instructions set out in any robots.txt file present on the Services.

Det er ikke bare en tom trussel, Google IP-banner faktisk folk de fanger. Så din programmør skal være rigtig skarp, for at undgå problemer for dig.

Googles Web Search API kunne du have brugt til at få SERPs maskinelt, men de er stoppet med at uddele API nøgler, og du kan ikke få / låne /leje / etc en API key uden at bryde Web Search TOS.

You agree that when using the Service, You will not, and will not permit users or other third parties to:[...]

display any Google Search Results to any third parties other than end users or otherwise transfer, sell, lease, syndicate, lend, or use for co-branding, timesharing, service bureau, or other unauthorized purposes the Service or access theret

Hver key giver adgang til 1000 queries, så du vil have brug for two keys. Da videresalg er imod TOS og der er efterspørgsel uden nogen forsyning ,så vil keys være svære at få fat i og rigtig dyre. Så er der også konsekvenserne fra Google's side, hvis de opdager dig. API'er er ikke blevet vedligeholdt i et helt år, så du må forvente problemer. Endelig så lukker Web Search API'en helt den første november 2013, så det er en 2-årig løsning.

Det kan være din programmør har forvirret sig med JSON/Atom Custom Search API, der giver dig 100 søgninger om dagen, hvor du kan købe dig til flere. Men den arbejder kun med Custom Search Engines. Altså søgninger internt på domæner. Så medmindre du har downloadet hele internettet, er det ikke en mulighed for dig.

Hvis GWT heller ikke er en mulighed, så er der en sidste mulighed. En metode der ikke er bredt kendt og kun er blevet mulig for et kort stykke tid siden. Metoden registrerer placeringen af søgeord, der førte til organisk traffik fra google til din side. For SERPs != SERPs, som denne amino tråd jo fint demonstrerer, og den eneste SERP der betyder noget, er den for dine websites kunder.

Andre fordele ved metoden er

 - 100% lovlig. Nul brud på TOS

 - Ingen risiko for IP-Banning eller andre straffe. 

 - Accept fra Google. Så det er en løsning der varer.

 - Ingen begrænsning på data. Alle placeringer for alle søgeord, der førte til organisk traffik fra google.dk til dine websites kan gemmes.

 - 0 kr, - i månedlige udgifter.

 - Et datapunkt for hver besøgende. Så præcise data, ikke bare et gennemsnit.

 - Utroligt let at implementere, du behøver ikke at være programmør for at få det op på en ny website.

 - Integrerer let med databaser. Kræver kun lidt PHP / ASP ( afhængi af hvilket sprog websiten er bygget op i )

 - Let at oprette en browser baseret løsning til at se de gemte data fra databasen.

 - Integrerer let med Google Analytics. Vil du se placeringerne i Google Analytics, som du og dine medarbejdere kender rigtig godt? Ikke et problem.

 - Integrationen med Google Analytics giver dig nu Geo-location data. Du kan se hvis din hjemmeside rankerer #1 for bank for århusianske søgere, men #2 for københavnere.

 - Du kan også integrere det med de andre data i GA, såsom Landing Page, OS, new/returning visitor, sprog, skærm opløsning, browser etc.

Metoden har nogle få ulemper.

 - Det virker for Google, men ikke for yahoo eller bing. ( jeg ved ikke med resten )

 - For websites med lidt organisk traffik, kan det være svær at få nok datapunkter.

 - Du kan ikke selv vælge søgeordne, men er begrænset til dem websiten bliver fundet på.

 - Du er nødt til at have mulighed for at ændre en websites kode for at få metoden implementeret, så det er umuligt at måle konkurrenters placering.

Samlet mener jeg at det er en løsning, der passer godt til jeres behov. Mht. Pris så ved jeg godt hvor meget sådan en metode er værd for dig, men jeg er en venlig sjæl. Så lad os sige en 4-5 dages programmør løn. Det er 7,500 kr eks moms. Du har sikkert allerede brugt langt mere på ikke at finde en løsning. Og da jeg sagde det var let at implementere, så mente jeg det. Jeg tror der vil gå under 10 min fra du læser min .pdf, der detaljerer hvordan man bruger denne metode, til det er oppe at køre på den første website. Jeg leverer med Google Analytics integration, og du kan så selv integrere det med en database eller bare kigge på data i Google Analytics.

Glæder mig til at høre fra dig

 - Andreas

Fra Viby J, Århus
Tilmeldt 10. Oct 08
Indlæg ialt: 631
Fra  Søgemedier A/S Skrevet kl. 09:20
Hvor mange stjerner giver du? :

Hej Andreas, tak for dit dybdegående svar, som jeg sætter stor pris på.

Jeg er klar over at det strider imod Googles TOS med en webscraber, men jeg var ikke helt klar over, hvad der nøjagtigt hører under begrebet webscraber. Jeg troede ikke at alle 'SERP programmer' hørte under den kategori, men der tog jeg nok fejl.

Jeg undrer mig dog over hvad alle andre SEO folk i branchen gør for at lave SERP rapporter, men vi er måske ude i noget med "kunsten at røve en bank"? Så det må nok stå hen i det uvisse...

Dit forslag med at måle den organiske trafik til websitet på søgeordsniveau er desværre ikke tilstrækkelig til at dække det behov jeg har. Jeg er nødt til at kunne fremvise en historik, som viser placeringerne i SERPs på samtlige relevante søgeord for kunden. Selve trafikken sporer jeg allerede med Google Analytics (for ja, det er naturligvis også meget relevant at vide, hvor meget trafik de opnåede SERP placeringer genererer).

Men igen - 1000 tak for dit svar! Jeg må dog i tænkebox kan jeg se...

Input til problemstillingen er stadig meget velkommen.

Fra København NV
Tilmeldt 22. Apr 11
Indlæg ialt: 17
Skrevet kl. 18:24
Hvor mange stjerner giver du? :

Hej Tobias. Først lige en undskyldning for at kalde dig Thomas. Lige før jeg skrev indlægget havde jeg en længere telefonsamtale med en ven, der hedder Thomas. Og så smuttede det altså ned i indlægget uden jeg opdagede det.

Web scraping er at tage indhold fra en website ( såsom Google.dk ) ved hjælp af et software program. Men web scrapers kan godt blive kaldt andre navne. Eksempelvis er GoogleBot en web scraper, men den bliver kaldt en Web Crawler. Dette er på grund af måden, den bevæger sig rundt på nettet. Der er også kulturelle forskelle i hvilke navne man bruger. Hvad programmet kaldes er dog ligegyldigt. Spørgsmålet er om den overtræder TOS, især denne del.

5.3 You agree not to access (or attempt to access) any of the Services by any means other than through the interface that is provided by Google, unless you have been specifically allowed to do so in a separate agreement with Google. You specifically agree not to access (or attempt to access) any of the Services through any automated means (including use of scripts or web crawlers) and shall ensure that you comply with the instructions set out in any robots.txt file present on the Services.

Spørg din programmør.

Hvis du er villig til at bruge en anden søgemaskine opfylder Yahoo! Search BOSS API alle dine krav. Hvis det skal være Google.dk, kan du kun opfylde TOS ved at bruge Google gennem deres interface dvs. manuelt. Her er den billigste mulighed, nok at hyre to ungarbejde og splitte arbejdsbyrden i to med en smule overlap til kontrol af præcisionen. Det vil nok tage 4 ungarbejder timer om dagen at arbejde sig igennem dine søgninger. Det er holdbart og risikofrit, men vil koste dig nogle tusinde kroner om måneden.

Jeg vil ikke anklage nogen bevisløst for at bryde Google's TOS. Det er ikke alle der gør det, men der er bestemt nogen der gør det. Eksempelvis skrev SEOmoz et blogindlæg i 2006, hvor de indrømmede at bruge web scrapers. På trods af, at der dengang var en Google API man kunne bruge til at finde SERPs.

Hvis du kan lide mine indlæg, er du da altid velkommen til at give dem nogle stjerner. Smile

Fra Lyngby
Tilmeldt 26. Mar 05
Indlæg ialt: 9714
Fra  DEMIB HOLDINGS ApS Waimea Digital Skrevet kl. 19:01
Hvor mange stjerner giver du? :

Google WebSearch API har aldrig kunne bruges til at tjekke rankings, da det aldrig har givet de samme resultater, som dem almindelige brugere får. Iøvrigt kørte det til sidst fra blot en enkelt computer og var derfor hamrende langsomt, inden det blev nedlagt helt for længe siden.

Jeg har haft flere møder på Google med deres Webmaster Tools og Quality team hvor netop deres gamle WebSearch API har været på agendaen, men de har ike kunde bevise en tilstrækkelig ROI internt til at de har kunne få lov at fortsætte med det.

Stort se alle seriøse SEO virksomheder arbejder med scraping af Google og alle de andre store søgemaskiner i styørre eller mindre omfang og har altid gjort det. Og dem af os der har gjort den slags i over et årti ved også hvordan det klares helt uden nogle risici :)

Tilmeldt 29. Jul 10
Indlæg ialt: 1362
Skrevet kl. 21:50
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Jeg synes ikke det her falder under noget hemmeligheds dekretBig Smile

Tobias, det du skal have fat i er en eller flere proxy-servere til at rotere den IP du tjekker resultater fra.

Velbekomme.

Fra Viby J, Århus
Tilmeldt 10. Oct 08
Indlæg ialt: 631
Fra  Søgemedier A/S Skrevet kl. 21:57
Hvor mange stjerner giver du? :

Erik Hamre:

Jeg synes ikke det her falder under noget hemmeligheds dekretBig Smile

Tobias, det du skal have fat i er en eller flere proxy-servere til at rotere den IP du tjekker resultater fra.

Velbekomme.

Hej Erik - tak for det, så prøver jeg at dykke lidt ned i det.

Jeg skrev det dog også i mit første indlæg:

'Proxy server har også været diskuteret, men det var vist heller ikke løsningen. '

Jeg troede dog som sagt at det IKKE var den vej jeg skulle koncentrere arbejdet imod, og at der var et bedre alternativ. Men tak for "afsløringen" Wink Jeg dykker ned i det.

Tilmeldt 29. Jul 10
Indlæg ialt: 1362
Skrevet kl. 23:14
Hvor mange stjerner giver du? :

Ok, jamen der er sikkert andre måder at gøre det på. Jeg bruger selv Ranktracker som er det eneste offentlig tilgængelige tool jeg synes giver korrekte resultater. Her har du muligheden for at bruge en proxy blandt andet. Det rent tekniske er jeg ikke ekspert i, men kan ikke se hvorfor det ikke skulle virke med et par danske proxier.

Side 1 ud af 1 (9 indlæg)