Hov. Du er ikke logget ind.
DU SKAL VÆRE LOGGET IND, FOR AT INTERAGERE PÅ DENNE SIDE

Program til at crawle en hjemmeside

Side 1 ud af 1 (10 indlæg)
  • 1
Tilmeldt 20. Apr 07
Indlæg ialt: 16014
30% af profil udfyldt
Skrevet kl. 01:53
Hvor mange stjerner giver du? :

Jeg søger et program der kan crawle en hjemmeside igennem, og  gemme siderne, evt. som HTML, så man ville kunne se siden offline.

Det skal bruges til situationer, hvor man ikke har mulighed for FTP adgang, men ønsker at tage en backup af en side.

Nogle gode forslag til et nemt program?

På forhånd tak

Brian

Fra Horsens
Tilmeldt 7. May 10
Indlæg ialt: 1022
Fra  SONNURMEDIA Skrevet kl. 02:35
Hvor mange stjerner giver du? :

Hej Brian,

Det kan gøres ved brug af screenscraping. Går ud fra at du kender hjemmesiden på det site du gerne vil gemme alle html sider af. Kender dog ikke nogle programmer der kan gøre det. Men det burde ikke tage så lang tid at programmerer.

Med venlig hilsen

Àsgeir Gunnarsson

Stifter af SONNURMEDIA  - Alt indenfor webudvikling 

Tilmeldt 31. May 10
Indlæg ialt: 151
Skrevet kl. 05:55
Hvor mange stjerner giver du? :
Gennemsnit 5,0 stjerner givet af 1 person

Du skal have fat i det program som hedder website ripper, der er sikkert flere, men dette gør arbejdet godt og det koster vist nok ca. 300 kr.

Mvh
Hagbart

Tilmeldt 20. Apr 07
Indlæg ialt: 16014
30% af profil udfyldt
Skrevet kl. 06:01
Hvor mange stjerner giver du? :

Rent teknisk ved jeg at man under Linux, kan bruge WGET kommandoen til at hente siden, fordelen ved den er at den retter linksne til, således at den html side du henter ned er funktionsdygtig.

Vi gjorde netop dette, under vores TDC stunt i 2009. Ved ikke om den service ligger frit tilgængeligt på nettet, men skulle da næsten være mærkeligt hvis den ikke gjorde :-)

Tilmeldt 31. May 10
Indlæg ialt: 151
Skrevet kl. 08:00
Hvor mange stjerner giver du? :

Mvh
Hagbart

Tilmeldt 20. Apr 07
Indlæg ialt: 16014
30% af profil udfyldt
Skrevet kl. 09:40
Hvor mange stjerner giver du? :

Hagbart:

Hvad mener du med vores TDC stunt i 2009 ?

Den gang hvor TDC, lukkede en masse hjemmesider, der crawlede vi de hjemmesider folk bad os om, og gav dem en kopi af dette, på deres nye gratis webhotel hos os. :-)

Der brugte vi har en standard WGET funktion i Linux.

Bare til inspiration.

Tilmeldt 20. Apr 07
Indlæg ialt: 16014
30% af profil udfyldt
Skrevet kl. 10:43
Hvor mange stjerner giver du? :
Hagbart:
Du skal have fat i det program som hedder website ripper, der er sikkert flere, men dette gør arbejdet godt og det koster vist nok ca. 300 kr.
Hej Hagbart,
'det var jo lige præcist det jeg søgte.Yes Mange tak.
Hvis der andre, der også savner et sådanne program, så hedder det Website Ripper Copier og kan bl.a. downloades HER
Brian
Fra Aarhus
Tilmeldt 4. Jan 11
Indlæg ialt: 1085
Fra  Linde-media Skrevet kl. 10:51
Hvor mange stjerner giver du? :
Jannik Hansen:

Hagbart:


Hvad mener du med vores TDC stunt i 2009 ?




Den gang hvor TDC, lukkede en masse hjemmesider, der crawlede vi de hjemmesider folk bad os om, og gav dem en kopi af dette, på deres nye gratis webhotel hos os. :-)


Der brugte vi har en standard WGET funktion i Linux.


Bare til inspiration.

.
Super smart af jer!
Tilmeldt 31. May 10
Indlæg ialt: 151
Skrevet kl. 20:09
Hvor mange stjerner giver du? :

Det program er bare så smart, kan godt anbefales det er alle pengene værd.

Mvh
Hagbart

Tilmeldt 20. Apr 07
Indlæg ialt: 16014
30% af profil udfyldt
Skrevet kl. 10:23
Hvor mange stjerner giver du? :
Hagbart:
Det program er bare så smart, kan godt anbefales det er alle pengene værd.

Enig. Og det koster blot 49,95$ og er utrolig brugervenligt.

Her er direkte link

Side 1 ud af 1 (10 indlæg)