CAPTURADORES WEB
Descargar una Página Web Completa y Navegarla en Tu PC sin conexión a internet.
Queridos amigos (as),y gente de la red, hoy se he decido publicar
algo que me ocurrió hace un buen rato atrás, algo que se relaciona con
los famosos capturadores web, y quizás para ello, podríamos comenzar
escribiendo algo más o menos como esto…
En esos dias cuando sales a un lugar sin conexión a internet, o te
han dado aviso que la conexión estará con problemas durante varios días,
o simplemente cuando llegas a algún lugar en especial, tu casa, la de
tu tía, tu lugar de trabajo, etc., este no tiene acceso a la red, o de
pronto, tienes acceso a una señal wireles, Bravo!!!, y luego… Buuu!!!,
no tienes la clave para poder conectarte, y una vez más, no puedes
navegar por tus sitios favoritos, entonces, cuando esto ocurre, te
pasara probablemente lo que en su momento a mí me ocurrió… y fue más o
menos así…
Una vez que esto me había ocurrido un sinnúmero de veces,
aparecieron muchas preguntas en mi cabeza que con el tiempo pude
responder, sin embargo siempre quedan en casi todos los temas preguntas
por hacer, las cuales sólo dependen de la expertis que tengamos sobre
cierto tema….
Necesitaba en aquel entonces muchísimos recursos de una determinada
web, la cual poseía montañas de información que se relacionaban con una
investigación en la cual estaba enfocado en ese tiempo, y por un lado la
disponibilidad a internet en lugar donde la desarrollaba era más bien
escasa, bueno ahora no creo que eso ocurra, pero no obstante cuando cae
internet es muy parecido a no tener nada, dado que uno nunca sabe cuándo
puede dejar de funcionar la internet, ya sea por cuestiones de señal,
sistema, pagos, servidor, etc... entonces me preguntaba.
¿Cómo puedo descargar esta página web completa y navegarla después cuando no tenga internet?
¿Podré descargar sólo los archivos que me importan y necesito de
esta web, como los archivos *.PDFs, *.Word, y *.Ps, sin descargar los
logos ni las fotografías ni códigos que no aportan mucho?
Si deseo descargar una web, ¿cómo puedo darle la profundidad a los links que se encuentran en esta página web?.
¿Cómo no habrá alguien que haya desarrollado algo que responda a estas cosas?
Esto me lo preguntaba porque cuando una web es demasiada extensa o
muy profunda puede tener 5, 6, 10, 15 y más niveles de profundidad en
sus links que hacen inmensa la web y podría tener tantos megas que
podríamos pasar semanas y quizás meses completos tratando de
descargarla. Para aquellos que desconocen a lo que me refiero esto de
los niveles de profundidad es similar a cuando en tu Pc abres una
carpeta y luego debes abrir otra carpeta, luego otra dentro de ella,
luego otra dentro de esta última, y así hasta llegar a la que realmente
contiene la info, bueno no es lo mismo peros se parece mucho, y en los
links de una web es más menos así…
http:Taringa.netarchivosmas_archivosmas_Archivos....o a esto me refiero
con la profundidad…. (es entretenido descargar cuando todo parece ir muy
bien, pero cuando se rompen los enlaces, se puede maldecir hasta lo
inmaldecible…)
¿Cómo puedo descargar una página web completa y que me quede en una carpeta con toda la información?
Después de todas estas preguntas me decidí a investigar, y como casi
en todas las pequeñas investigaciones que realizamos hoy, siempre
recurrimos al Elvis de los buscadores, Mr. Google, el cual me ofreció en
ese momento muchas alternativas, me imagino que ahora proporcionará una
cantidad tremendamente superior dado su constante crecimiento y por
supuesto el de la red.
Dentro de este universo de posibilidades existente vamos a nombrar
algunas características de los capturadores web que personalmente he
utilizado, y finalmente, le comentaré cual es mi favorito y porqué (¿en
gustos no se puede decir mucho no?, pero lo que si se puede decir es
cómo funcionan y sus atributos, y desde allí inducir la decisión)
WEBRIPPER
Es una aplicación gratuita que nos permitirá bajarnos
sitios web enteros, incluidos archivos multimedia. En él podemos
bajarnos sitios web de un dominio en concreto y hasta en cuatro niveles,
restricción por tamaños y por tipos de archivos. Además, dispone de un
buscador en el que le podemos indicar los tipos de archivos que queremos
bajarnos, y él nos lo buscará dentro de los índices de los principales
motores de búsqueda.
En los filtros de archivos, podemos indicar que tipo de archivos
queremos bajar, tanto de imagen (JPEG, GIF, PNG), de vídeo (MPEG, AVI,
QuickTime, Windows Media, Real Video), de sonido (MP3, WAV, WMA, MIDI,
Real Audio), documentos (PDF, Word, PowerPoint, Excel) y otros tipos de
archivos (Flash, EXE, ZIP). Permite bajar archivos de manera simultánea,
haciendo un uso óptimo de nuestra conexión a internet.
Personalmente no es uno de los mejores que he utilizado, pero
sinceramente es muy potente para descargar archivos sueltos. Este tipo
de utilidades gratuitas poseen algunas inusuales potencialidades,
algunas tienen que ver con la forma de programación de la utilidad para
realizar ciertos tipos de ataques a la web que se desea descargar, en
este caso la capacidad de obtener archivos sueltos de esta herramienta
ya se la quisiera una utilidad de pago…
Descargar
WebRipper 1.0
http://webripper.dnsalias.com/WebRipper_1.0.exe
Licencia | Gratuito
************************************
WinHTTrack Website Copier
WinHTTrack Website Copier es una herramienta gratuira que permite
descargar completamente una página o sitio Web, incluyendo todos los
enlaces que posee la página e igualmente todos sus complementos como
imágenes, archivos y lo demás que sea necesario para poder navegarla en
local sin necesidad de estar conectado o como dicen offline. Esta
utilidad es sobre todo muy eficaz y lo suficientemente flexible para
introducirse en una red y rescatar casi toda la información. WinHTTrack
Website Copier está muchos idiomas (incluido el español) y es muy fácil
de configurar al idioma que necesitamos.
Sin embargo, hay que destacar que siempre hay alternativas que son
pagadas como web copier que en algunos casos, sólo en algunos casos
puede ser mejor, pero las actualizaciones de esta herramienta siempre
son gratuitas y fácil de conseguir, y como el software es open source (
código abierto), siempre tendremos nuevos amigos que le sigan inyectando
nuevas características a la herramienta.
Para utilizar WinHTTrack Website Copier necesitas:
Sistema operativo: Win95/98/98SE/Me/2000/NT/XP/Vista
Es un software de código abierto es uno de mis favoritos y la verdad
es que lo recomiendo muchísimo, dado que es gratis (freeware) y muy
potente, bueno como casi todos los software de código abierto.
Igualmente puedes descargar una versión para sistemas operativos Linux, Unix desde la página oficial: www.httrack.com
Detalles de la descarga:
Versión 3.43-9C
Tamaño 3.64
Descarga
El manual http://www.mclibre.org/consultar/internet/otros/httrack_guardarsitios.html
|