$ wget \
--recursive \
--no-clobber \
--page-requisites \
--html-extension \
--convert-links \
--restrict-file-names=windows \
--domains website.org \
--no-parent \
www.website.org/tutorials/html/
Esse comando baixa o Web Site:
www.website.org/tutorials/html
As opções são:
- --recursive: download do site inteiro recursivamente
- --domains website.org: não segue os links fora do domínio website.org
- --no-parent: não segue os links fora do diretório: tutorials/html/
- --page-requisites: copia todos os elementos que compõe a página (imagens, CSS e etc)
- --html-extension: salva arquivos com extensão .html
- --convert-links: converte os links para que funcionem localmente, off-line
- --restrict-file-names=windows: modifica os nomes dos aquivos de modo que funcione no windows também.
- --no-clobber: não sobreescreve os arquivos já existentes
Dica modificada da publicação origianal de DASHAMIR HOXHA, no Linux Jornal (OUT/2008).
Nenhum comentário:
Postar um comentário