Spidering y Crawling con Burp Suite y skipfish
Last updated
Last updated
Si nos vamos en la pestaña de targets
-> Site map
-> Aqui podremos ver nuestra IP y si desplegamos veremos una carpeta de la pagina mutillidae
y si volvemos a desplegar, veremos varios archivos los cuales conforman la pagina web, entre ellos un index.php
pero si desplegamos ese podremos ver todas las paginas que nos ha descubierto Burp Suite
y las que estan en gris claro significa que no las hemos visitado y las que estan en negrita significa que si las hemos visitado:
Esta herramienta consigue descubrir todo esto mediante el analisis del codigo fuente que recive del servidor, cuando recive esa peticion desde el servidor con la pagina web parsea la peticion coge todos los enlaces que puedan hacer referencia a otros apartados dentro de esa aplicacion web y te los muestra ahi.
Todo este proceso de reconocimiento (Pasivo
) se le denomina Spidering
o Crawling
.
Todas las peticiones que hagamos estando en la misma escucha que Burp Suite
pero no hace falta que este en On
las ira almacenando en targets
, por ejemplo si nos logeamos en alguna pagina, ese login o esa peticion la guardara la herramienta.
Si queremos hacer Spidering Activo
con las antiguas versiones de Burp Suite
en la version gratuita estaba implementado, pero ahora es de pago, por lo que podremos hacerlo con otra herramienta llamada skipfish
.
Skipfish
es una herramienta que viene por defecto en kali
, para hacer este tipo de escaneo haremos lo siguiente:
Con el parametro -YO
lo que estamos haciendo es que nuestro escaneo no sea tan intrusivo, haciendo un poco de fuzzing
en directorios, para ir descubriendo informacion.
Una vez ejecutado esto, pulsaremos ENTER
y estara en proceso la herramienta de escaneo activo sobre la URL indicada.
Esta tecnica (Spidering o Crawling
) de escaneo deberia de ser la primera que deberemos de realizar para juntar toda la informacion posible sobre la pagina web y posteriormente analizar dicha informacion para una posible explotacion.
Podremos dejarlo un rato, por que depende de las paginas puede durar mucho este escaneo, por lo que cuando queramos le podemos dar a Ctrl+C
y parar el escaneo:
Lo que mola de esta herramienta es que la visualizacion de los resultados es bastante chula, por lo que si nos vamos a la carpeta que creamos donde se volcaron todos estos resultados en mi caso skipfish_results
dentro de la misma habran varios archivos, pero el que nos interesa abrir es el llamado index.html
.
Veremos una interfaz bastante bonita y visual a la hora de poder analizar los datos.