Hvordan trækker man data ud af ca 180 forskellige hjemmesider og placerer disse data i en database som jeg kan tilgå? Data skal ikke præsenteres på web.
Det er svært at svare på uden flere informationer. Hvis de 180 sider har et datafeed eller en API så kan disse bruges. Hvis de alle har et datafeed er det nemt, selvom feeds kan være forskelligt opbygget, så der skal stadig bruges en masse timer på at tilpasse importen til hvert enkelt feed.
Hvis du skal have en til at programmere op imod 180 forskellige API´er kunne jeg ikke forestille mig 100.000 var nok til projektet.
Det bliver endnu dyrere hvis siderne hverken har et datafeed eller en API. Et problem er også at ændrer nogen af siderne i deres side løbende, ja så skal du betale en udvikler for at tilpasse din crawler. Det er sjældent man ændrer en API eller et XML-output, så der vil nok være færre løbende udgifter til sådan en løsning.
Du skal i øvrigt ikke kun spørge til udviklingsomkostningerne, det er også vigtigt du husker at der nok kommer løbende udgifter til at vedligeholde import fra 180 forskellige datakilder.
Med mindre API´er eller XML´er er ens kan jeg ikke se hvordan man overhovedet kan gøre det for under 100.000, hvis vi taler 180 forskellige datakilder.