No. 5 de 9 de articulos. Seguridad Sistemas

Cadenas identificativas y otros recursos

Una de las formas más artesanales de obtener información sobre una organización, es obtenerla a través del código fuente de sus portales corporativos o páginas Web, es decir revisar manualmente el código xhtml, html, asp o php. De esta forma se puede conocer que aplicaciones corren los servicios web e incluso es posible determinar, de una manera bastante aproximada, que sistema operativo esta instalado en la maquina. También es normal buscar los comentarios en el código fuente, para ver si proporcionan alguna información que pueda ser de utilidad. Para realizar este proceso de descargar un portal entero a nuestra maquina para analizarlo existen numerosas herramientas, entre ellas destacamos las siguientes:

wget (Linux)

En distribuciones Linux, desde la línea de comandos, existe la herramienta wget, que permite descargar a un disco local todas las paginas web de un portal, bien por vía HTTP, o por vía FTP, es una aplicación para ejecutarla desde la consola, aunque existen entornos gráficos. la sintaxis del comando es la siguiente:

wget [opciones] [lista de urls]

Siendo las opciones disponibles para el comando las siguientes:

-h
–help

Muestra la ayuda del comando.

-V

Muestra la versión del programa.

-i nombrefichero
–input-file=nombrefichero

Lee la lista de urls del fichero especificado en nombrefichero.

-o ficherolog
–output-file=ficherolog

Escribe los ficheros de log en ficherolog, en vez de utilizar la pantalla.

-a ficherolog
–append-output=ficherolog

Igual que la opción anterior, pero si el fichero existe añade en el mismo la información, en caso de no existir el fichero lo crea.

-t numero
–tries=numero

Especifica el numero de veces de intentos a realizar para la descarga, si se especifica el valor 0, indica un numero indefinido.

–follow-ftp

Sigue los enlaces ftp desde documentos HTML

-g on/off
–glob=on/off

Activa o desactiva el uso de caracteres especiales como ‘*’ para indicar todos los ficheros.

-r

especifica el modo recursivo.

-U

especifica identificación de navegador. Ya que muchos sitios web deniegan la descarga si no se realiza a través de un navegador.

–wait=tiempo

Especifica un tiempo de parada o pausa entre descargas.

–limit-rate=valor

Especifica el valor o velocidad de descarga indicada en valor.

-no-parent

Indica que el comando no descargue por debajo del directorio especificado.

-k

Una vez terminada la descarga convierte los enlaces o links de los documentos a rutas relativas, para poder navegar en modo local con la descarga realizada.

-c

Continua con la descarga desde el punto en el que se haya quedado.

Vea los siguientes ejemplos:

// Descargar un archivo

wget http://www.aprendoencasa.com/index.php

// Descargar utilizando distintos métodos

wget http://www.aprendoencasa.com/imagen1.jpg ftp://aprendoencasa.com/descargar/cursos.zip

// Descargar utilizando archivo de entrada

// se ha de crear un archivo el cual contendrá la uri de los archivos a descargar

wget –i archivos.txt


// Descargar después de una interrupción continuando por donde se haya quedado

wget –i –c archivos.txt

// Descargar y crear un informe 

wget –o informe.txt  http://www.aprendoencasa.com/index.html

// Descargar un archivo limitando el ancho de banda

wget –o informe.txt –-limit-rate=50k ftp://ftp.aprendoencasa.com/ubuntu910.iso

// Descargar especificando nombre de usuario y contraseña en caso de ser solicitado
// por un sitio

wget –http-user=admin –http-password=secreto http://www.aprendoencasa.com/archivo1.zip

// Descargar aumentando el numero de intentos, útil en casos de sitios con saturacion
// y descargar utilizando accesos infinitos

wget –t 50 http://www.aprendoencasa.com/fedora10.iso

wget –t inf http://www.aprendoencasa.com/suse11.iso

// Descargar pagina web entera con los elementos que incluyen la misma como imágenes,
// estilos, etc.

wget –p http://www.aprendoencasa.com


// Descargar pagina web entera especificando recursividad de hasta cinco niveles

wget –r http://www.aprendoencasa.com // Descargar pagina web entera especificando nivel de recursividad wget –r -l10 http://www.aprendoencasa.com // Descargar pagina web convirtiendo los enlaces a relativas para navegar offline wget –r ––convert-links http://www.aprendoencasa.com // Existen mas opciones seria interesante consultar el comando para averiguarlas.
Navegacion SeriesAnterior en la serie...Siguiente en la serie...

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies