viernes, 16 de noviembre de 2012

Uberharvest...olfateandooooo webs

Hace un tiempo que publiqué la entrada sobre Harvester para "cosechar" correos en el world wide web xD

Hoy voy a hablaros de UberHarvest. La madre del cordero, compralo !!!
Ubicado en una ruta un tanto peculiar en Backtrack 5 r3



- Busca de direcciones de correo electrónico desde un sitio web o muchos a la vez
- Consigue sitio web de destino del nombre de dominio, IP del dominio y la ubicación geográfica
- Scan sitio web de destino para el correo de Exchange (MX) Dirección de servidores IP.
- Probar si los servidores de destino MX son open-relay server
- Obtener la versión del servidor web de destino y X-Powered-por de la cabecera
- Información Harvest usando técnicas de evasión a través del uso de proxy anónimo y los diferentes agentes de usuario.
- Obtener los dominios de destino del servidor del motor de búsqueda Google
- Utilice la flecha hacia arriba para reutilizar entrada antigua para aumentar la eficiencia del tiempo
- Imprima los resultados en formato XML y XSL hojas de estilo.
- Cosecha de los números de teléfono de la página web principal y consulte con Amarillo-Pages.com por teléfono listado, la dirección y el nombre del negocio.
- Obtener certificados Secure Socket Layer información.
- Recibir información de WHOIS
- Recibir información ARIN
- Utilice Google para excavar en busca de más vínculos en caché
- Huella WordPress Blogs
- Huella Drupal Blogs


Vamos a tocar el piano. uberharvest -u lo primero de todo para actualizarlo. No actualiza bien desde la linea de comandos, creo que por un problema con la ruta de la carpeta de destino, por lo que me ha tocado bajarme el tar y volver a instalarlo.
 bzip2 -cd uberharvest.tar.bz2 | tar xvf -
cd
./setup

uberharvest -m   nos lanza un menú interactivo, cada vez mas cerca el mundo linux de los wizards de windows xD. Si queremos usar un proxy anti-jail xD podemos añadir -p ip. Si queremos despistar un poco mas a la víctima, podemos añadir el parámetro -random para cambiar los user-agents ( la identificación de los navegadores para que los servidores web puedan manejar ciertos comportamientos, por ejemplo, cuando entras desde un móvil a una web, que se abre en modo "mobile").



Empieza preguntándonos la url víctima.

Las preguntas son muy obvias, encontrar correos con @ el dominio dado, o cualquier correo. Guardar a disco o salida por pantalla. Buscar solo en la web del dominio pasado, o que aplique recursividad y busque a su vez en los dominios encontrados (hasta donde llegará? hasta el infinito) pero nos pregunta.
Como he empezado el post, también nos muestra los datos del servidor.



Otra opción para mi interesante sin duda es la posibilidad de pasarle un fichero con direcciones "víctima". cambiamos al directorio "vault" y editamos el fichero website.txt. Para usarlo basta con llamar al programa con el modificador -l. También podemos indicarle que nos tire los resultados a un fichero xml formateado.

 Espero que os guste y como siempre, gracias por leerme !!!.