Barceló

domingo, 17 de febrero de 2013

Information Gathering Tools (1/?)

Buenas a todos, tras mucho tiempo sin escribir por fin he vuelto a tener tiempo para trastear con cosas.

Hoy hablaré de  herramientas de recogida de información, no refiriéndome a herramientas como nmap, si no más bien herramientas orientadas a prepararnos para realizar después ingeniería social.

Jigsaw

Jigsaw es una herramienta destinada a obtener información sobre los trabajadores de una compañía. La herramienta parece funcionar perfecta para empresas como google, donde simplemente elegimos uno de sus dominios (en mi caso probé con google.com) y hace un crafting de todos los emails que encuentra de los empleados en diversos departamentos

El problema de esa gran herramienta es que llama a la base de datos de jigsaw.com, con lo cual dependemos de las empresas que allí figuren. Como os podéis imaginar, para empresas españolas nada de nada, ni siquiera alguna grande como El Corte Inglés o Hacendado. Está Zara, eso sí, y el grupo Inditex.

Creepy

Pues eso, escalofriante es la mejor manera de describir esta herramienta. En un mundo donde servicios como Twitter o Flickr están a la orden del día, y todo el mundo tiene un smartphone con GPS, este programa aprovecha que muchos móviles adjuntan a las fotos que sacas metadatos con la información de tu posición en ese momento, qué majos, ¿no?

Así que tú le das un usuario de twitter o de flickr, y si la persona tiene imágenes subidas con geolocalización, verás en un mapa dónde se ha sacado fotos dicho individuo.

Foca

Hablando de metadatos, pues eso, no podía faltar la foca, lo primero que podemos lanzar contra una web a auditar para sacar usuarios, impresoras, mails, ips, yo qué sé, el mundo de los metadatos es demasiado grande. Siempre aportan pistas curiosas y palabras que usar en wordlists.

Uberharvest

Teóricamente escanea un sitio web y busca direcciones de correo y más cosas, yo sin embargo sólo consigo que me haga una búsqueda en el DNS y me devuelva los servidores, incluídos los de correo. Me saltan excepciones de python con algunas opciones.

No sé si lo estoy usando mal, pero no me convence.

TheHarvester

Este programa me encanta. Le pones un dominio, y le puedes decir que busque en google, bing, linkedlin, etc. Te devolverá las direcciones de correo con dicho dominio, así como los host y virtual hosts que encuentre. Sólo le veo el fallo de que no te deja buscar en el propio dominio ya que todas las búsquedas las hace a través de buscadores, con lo cual estás obviando cosas que no estén cacheadas o que se encuentren en robots.txt.

WebShag

Tiene un modo scanner llamando a Nmap por debajo, un modo de buscar hosts y vhosts, un spider que recorre la web y busca mails, directorios y enlaces externos, un modo USCAN que busca vulnerabilidades recurriendo a Nikto2 o a una base de datos de vulnerabilidades que especifiquemos y por último un modo fuzzer que busca archivos y directorios "ocultos" en el servidor ya sea por fuerza bruta o por diccionario.

Me ha parecido muy útil sobre todo para el caso que nos ocupa el modo Spider.

Por hoy me despido y espero que os sea de utilidad este breve resumen.

¡Un saludo!