5.4. wget

Fra tid til anden har du brug for at kunne hente en stribe hjemmesider, som du sidenhen vil kunne læse - for eksempel programvejledninger. Med Netscape er det besværligt, idet du skal trykke "gem" for hver enkelt side. Meget smartere er programmet wget, der kan hente rekursivt fra en http- eller ftp-side, såsom SSLUG's adresse.


[tyge@hven ~]$  wget -r http://www.sslug.dk/

Ovenstående kommando henter hele SSLUG's hjemmeside. Er det kun de underliggende kataloger der skal hentes, tilføjes -np (no parents). Dette kan bruges til at hente denne bog fra www.sslug.dk. I nogle HTML-sider er der angivet direkte link. Dette kan fjernes med -k.


[tyge@hven ~]$  wget -r -k -np cvs.linuxbog.dk/friheden/bog/

Et lille trick er at bruge wget -c ftp://ftpsted/storfil.tgz, hvor -c står for continue og hvis man husker den hver gang man henter store filer ned, så kan programmet finde ud af at fortsætte afbrudte nedhentninger. Fed funktionalitet hvis man vil hente noget stort over en ustabil forbindelse.

Se også Afsnit 5.5 om ncftp som kan anvendes til at hente filer fra nettet.