Si queremos descargar el contenido de un sitio online completo (incluyendo todas las imagenes y ficheros del mismo) y poder consultar o navegar por la informacion una vez que estemos desconectados, podemos ejecutar el siguiente comando:
wget -r -p http://www.ejemplo.com
Sustituyendo http://www.ejemplo.com por la URL del sitio en cuestion. Podemos ampliar este comando de la siguiente forma:
wget --random-wait -r -p -U mozilla http://www.ejemplo.com
–random-wait, hace que la descarga de contenido sea aleatoria, pues muchos sitios cuando observan descargas multiples y masivas de ficheros, limitan la descarga o la cortan.
-U mozilla, permite engañar al sitio online haciendoles creer que somos un navegador convencional, en muchos otros casos estos sitios al no detectar un browser valido impiden la descarga.
Podeis ampliar toda esta informacion consultando en Taringa y Hermoso dia.
Relacionado | Manpage de wget
Gracias por el aporte pero si quiero descargar una web entera , y mañana actualizan con un par mas de noticias , como lo hago para solo descargarme el par de noticias que han sido publicadas, sin tener que volver a descargar todo la web entera.
Un saludo.
P.D. -No se si se a entendido lo que comento, la cuestión es que seria descargar de la misma web los contenidos que se vayan actualizando sin tener que volver a descargarlo todo y que vaya a parar al mismo destino/carpeta que tengo la web ya descargada desde el principio.
cojonudo, muchas gracias!!
Me parece que ya habías publicado el mismo tema de wget, pero no me acuerdo cuando, porque me acuerdo que igual habían otros comandos más que te faltan ahi.
Gracias men
Por cierto piwi y donde guarda la web?
en el directorio desde donde estés ejecutando wget;
aunque con la opcion -P puedes indicarle donde quieres guardarlo, siempre es bueno consultar el wget –help
wget -r -p http://www.youtube.com
quiero descargar algo de taringa con wget a traves de megaupload o rapidsahare.
para esas cosas mejor usa JDownloader.
solo necesito descargar el codigo fuente de una pagina web que tiene html y php pero no me interesa los enlaces a documentos pdf y word que estan enlazados a la pagina, me recomendaron usar WGET , me pueden ayudar indicandome que opciones de wget usar para conseguir esto, ya que el sitio del que quiero hacer un mirror es de prueba, y no me interesa tener todos el sitio completo.
gracias
mi correo es jlag_amigo@hotmail.com
Buensimo, es lo mas parecido que encontré a lo que ando buscando, pero mi pregunta es con un comando similar a este… puedes por ejemplo entrar en una pagina que te pida usuario y contraseña, por ejemplo la del ruter?
Loco, usa aircrack-ng, jijí.