Det kan gøres ved brug af screenscraping. Går ud fra at du kender hjemmesiden på det site du gerne vil gemme alle html sider af. Kender dog ikke nogle programmer der kan gøre det. Men det burde ikke tage så lang tid at programmerer.
Med venlig hilsen
Àsgeir Gunnarsson
Stifter af SONNURMEDIA - Alt indenfor webudvikling
Rent teknisk ved jeg at man under Linux, kan bruge WGET kommandoen til at hente siden, fordelen ved den er at den retter linksne til, således at den html side du henter ned er funktionsdygtig.
Vi gjorde netop dette, under vores TDC stunt i 2009. Ved ikke om den service ligger frit tilgængeligt på nettet, men skulle da næsten være mærkeligt hvis den ikke gjorde :-)
Den gang hvor TDC, lukkede en masse hjemmesider, der crawlede vi de hjemmesider folk bad os om, og gav dem en kopi af dette, på deres nye gratis webhotel hos os. :-)
Der brugte vi har en standard WGET funktion i Linux.
Den gang hvor TDC, lukkede en masse hjemmesider, der crawlede vi de hjemmesider folk bad os om, og gav dem en kopi af dette, på deres nye gratis webhotel hos os. :-)
Der brugte vi har en standard WGET funktion i Linux.