Descargar una página web completa con Ubuntu

A veces necesitamos descargar una página web completa, ya sea para verla mas tarde sin conexión, o porque nos parece que su contenido es interesante y no tenemos tiempo para poder leerla en linea y no queremos que se pierdan los contenidos, o porque debido a la crisis su dueño se vea forzado a abandonarla o cerrarla.

En Ubuntu, y demás distribuciones GNU/Linux, tenemos varias opciones para realizar este cometido y entre estos están los que voy a explicar en este post: Wget, la extensión para Firefox ScrpBook, el programa que se encuentra en los repositorios WebHTTrack, y la versión para Linux de Webcopier.

  1. A traves de consola con wget. En este caso existen varios parametros para distintas funciones
    • -r = Descarga recursiva.

    Sin más parámetros se seguirán todos los enlaces para descargar de forma masiva todo un site.

    • -l # = Profundidad de descarga #

    (cuántos niveles de enlaces se deben seguir)

    • -x = Crear estructura de directorios en el disco duro

    mapeando la estructura de carpetas del servidor web

    • -np = (no-parent)

    al descargar de forma recursiva, no seguir los enlaces que lleven a niveles superiores al inicial en la estructura de carpetas

    • - N = time-stamping.

    con esta opción conseguiremos una actualización incremental. Un fichero se marcará para descarga si se cumple alguna de las siguientes condiciones: 1. no tenemos ya un fichero local con el mismo nombre que el archivo a descargar y 2) existe un fichero con el mismo nmbre, pero el archivo remoto fue modificado más recientemente que el local. Esta información se conoce como time-stamps.

  2. A través de las extensiones para Firefox: ScrapBook, o de su sucesora ScrapBook+

  3. Instalando HtTrack. Para ello abrimos Synaptic y marcamos webhttrack para ser instalado. O también a través del Centro de Software en las últimas versiones de Ubuntu.

    • Al finalizar podemos ejecutarlo por primera vez

    • Escogemos el idioma español

    • Escribimos la URL de la página que deseemos copiar a nuestro disco duro, le damos un nombre y escogemos el directorio donde guardarlo.

    • Comienza la descarga

  4. Descargando la versión para Linux de WebCopier desde la página Web: http://www.maximumsoft.com/products/wc_linux/overview.html

    Actualización 03/12/2012
    A partir de la versión 7 de Java el programa ha dejado de funcionar, puesto que es la misma versión desde el año 2008, quien todavía tenga instalado Java 6 o una versión anterior todavía puede conseguir que funcione.

WebCopier para Linux es de libre descarga para uso personal. y una vez descargado, lo guardamos en una carpeta local

  • Una vez tengamos el fichero lo abrimos y extraemos la carpeta Webcopier a nuestra carpeta personal.
  • Ahora con Gedit editamos $ gedit /home/tuusuario/webcopier/webcopier.desktop, y modificamos

Exec=”/home/tuusuario/webcopier/webcopier”

Icon=/home/tuusuario/webcopier/icons/wc_linux_icon_64.png

Path=/home/tuusuario/webcopier

En este segundo caso podemos escoger el icono que prefiramos de los disponibles en la carpeta “icons”

  • Una vez hecho esto ya tenemos el lanzados preparado y podemos, si es nuestro gusto, copiarlo al escritorio o al panel.

  • Al ejecutarlo por primera vez nos salen dos mensajes:

donde pulsamos continuar como usuario personal

donde nos informa de que solo se integra con Mozilla y no con Firefox por lo que pulsamos no para que nos salga el mensaje cada vez que inicíarmos el programa.

  • A continuación se nos abre el programa Webcopier

  • Podemos crear un nuevo proyecto y se nos abre el asistente en el que hay que ir cubriendo los datos que se solicitan.
  • Tiene la posibilidad de configurar entre otras el tamaño de los ficheros que queremos descargar.




  • Y comienza la descarga

 

Fuentes
http://diariolinux.com

Relacionadas

Poner otra imagen de arranque (usplash) en Ubuntu

Copiar /home a una partición diferente

About these ads

8 Responses to Descargar una página web completa con Ubuntu

  1. karameloso dice:

    Era todo lo que andaba buscando, junto. Bueno post!

  2. agradezo su colaboración que será de gran utilidad

  3. V A R G U X dice:

    Una corrección… el título podía ser:
    “Descargar una página web completa en Linux”, está bien que estes usando Ubuntu, pero eso también se puede hacer en Debian u otro sistema GNU/Linux…

    Por lo que un tema más general podría ser más adecuado…. Ubuntu no es como decir Linux…

    • Enrique C dice:

      Linux no es Todo GNU

      Lo correcto/etcio/moral/adecuado sería: “Descargar una página web completa en entornos GNU/Linux”

      Por lo demas, excelente aporte a la cominudad, saludos!

  4. jvare dice:

    Tienes razón Vargux, pero me gusta comprobar por mi mismo que lo que pongo en el post realmente funciona y solamente disponía de Ubuntu en el momento de hacer la prueba.

  5. sr_x dice:

    pense que ubuntu la descargaba xD… … ke sorpresa.. la descarga wget :)

  6. Pingback: descargar sitio web con wget - psicofxp.com

  7. 789soda dice:

    exelente gracias !!!!!

Deja un comentario

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s

Seguir

Recibe cada nueva publicación en tu buzón de correo electrónico.

Únete a otros 894 seguidores

%d personas les gusta esto: