[INFO] RECOPILACIÓN DE INFORMACIÓN
Recopilar la mayor cantidad de información posible sobre la aplicación, sistema u organización.

INFO-01 Fugas de información indexadas por buscadores

🎯 Objetivo
Buscar información sensible sobre la aplicación, sistema u organización que pueda estar expuesta tanto directamente (en el sitio web de la organización) o indirectamente (sitio web de un tercero).
📝 Pruebas
  • Buscar información sobre la aplicación en Google, Bing, GitHub, Shodan, Censys, Pastebin, Hunter, LinkedIn, Facebook y Twitter.
  • Comprobar fugas de información en leaks.
  • Lanzar waybackurls.
  • Comprobar emails en hunter.io.
  • Comprobar dominio en shodan.io.
  • Comprobar dominio en binsearch.info.
Google
1
site:[DOMAIN]
2
cache:[DOMAIN]
3
filetype:[EXTENSION]
4
inurl:[DORK]
5
intext:[DORK]
6
inbody:[DORK]
7
intitle:[DORK]
Copied!
Archive
1
https://web.archive.org/web/*/[DOMAIN]/*
Copied!
1
waybackurls [DOMAIN] | tee -a [DOMAIN].txt
Copied!
Hunter.io
1
https://hunter.io/search/[DOMAIN]
Copied!
Shodan.io
1
https://www.shodan.io/search?query=[DOMAIN]
Copied!
Binsearch.info
1
https://binsearch.info/?q=[DOMAIN]
Copied!
🌐 Referencias

INFO-02 Fingerprinting del servidor web

🎯 Objetivo
Buscar información sobre la versión y tipo del servidor web para buscar posibles vulnerabilidades y exploits.
📝 Pruebas
  • Navegar por la aplicación y observar cabeceras.
  • Analizar el código HTML.
  • Observar las cookies.
  • Lanzar Wappalyzer.
  • Lanzar Whatweb.
  • Lanzar Netcraft.
Wappalyzer
1
wappalyzer [URL] --user-agent "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4135.1 Safari/537.36" --proxy "http://127.0.0.1:8080" --recursive --pretty >> [DOMAIN].json
Copied!
Whatweb
1
whatweb --aggression 4 --user-agent "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4135.1 Safari/537.36" --proxy "127.0.0.1:8080" --url-prefix "https://" [DOMAIN]
Copied!
Netcraft
1
https://sitereport.netcraft.com/?url=[URL]
Copied!
🌐 Referencias

INFO-03 Fugas de información sensible en metaficheros del servidor

🎯 Objetivo
Buscar archivos o directorios que puedan contener información interesante o sensible.
📝 Pruebas
  • Comprobar el archivo robots.txt.
  • Observar el tag HTML META.
  • Lanzar crawl con Burp Suite.
  • Lanzar gobuster con directorios conocidos.
  • Lanzar wfuzz con ficheros conocidos.
Wget
1
wget [URL]/robots.txt
Copied!
Curl
1
curl -O [URL]/robots.txt
Copied!
Gobuster
1
gobuster -w "/usr/share/wordlists/dirbuster/directory-list-2.3-medium.txt" -t 23 dir -u "[URL]" -o directories.txt
Copied!
1
gobuster -w "/usr/share/wordlists/dirb/common.txt" -t 23 -x php,txt,html dir -u "[URL]" -o common_files.txt
Copied!
Wfuzz
1
wfuzz -c -t 23 -w "/usr/share/wordlists/dirb/common.txt" -z "php,txt,html" -u "[URL]FUZZ"
Copied!
🌐 Referencias

INFO-04 Enumeración de aplicaciones en el servidor web

🎯 Objetivo
Enumerar las aplicaciones dentro del alcance de la auditoria y presentes en el mismo servidor (Host compartido), descubrimiento de puertos abiertos, servicios, subdominios o frameworks utilizados.
📝 Pruebas
  • Utilizar el motor de búsqueda bing con el filtro IP:.
  • Comprobar en http://ipv4info.com.
  • Lanzar Nmap.
  • Lanzar Wfuzz.
  • Lanzar Assetfinder.
  • Lanzar Amass.
  • Lanzar Sublist3r.
Bing
1
https://www.bing.com/search?q=IP%3A[IP]
Copied!
IPv4info
1
http://ipv4info.com/search/[DOMAIN]
Copied!
Nmap
1
nmap -p- --open -T2 -v -oA ports [DOMAIN]
Copied!
1
nmap -sC -sV -T2 -v -oA services -p[PORTS] [DOMAIN]
Copied!
Wfuzz
1
wfuzz -c -t 23 -w "/usr/share/wordlists/SecLists/Discovery/DNS/subdomains-top1million-20000.txt" -H "Host: FUZZ.[DOMAIN]" -u "[URL]"
Copied!
Assetfinder
1
assetfinder --subs-only [DOMAIN] | tee -a assetfinder.txt
Copied!
Amass
1
amass enum -passive -d [DOMAIN] -o amass-pasive.txt
Copied!
1
amass enum -brute -d [DOMAIN] -o amass-brute.txt
Copied!
Sublist3r
1
python sublist3r.py -d [DOMAIN] -v -o sublister.txt
Copied!
🌐 Referencias

INFO-05 Fugas de información sensible en metadatos y comentarios

🎯 Objetivo
Buscar fugas de información en comentarios HTML y metadatos de archivos subidos al servidor.
📝 Pruebas
  • Una vez explorada la aplicación mediante Burp Suite, exportar los comentarios desde la pestaña Target -> Site map -> Engagement tools -> Find comments.
  • Plugin para Burp Suite: Exiftool Scanner.
  • Almacenar los archivos obtenidos y descargados durante la auditoria para analizarlos con FOCA.
Burp Suite
Exportar comentarios desde Burp Suite
🌐 Referencias

INFO-06 Identificación de puntos de entrada en la aplicación

🎯 Objetivo
Comprender como se forman las peticiones y respuestas de la aplicación, buscar puntos de entrada y parámetros ocultos.
📝 Pruebas
  • Comprender como están formadas las peticiones y respuestas.
  • Identificar en que puntos de la aplicación se usan los métodos POST y GET.
  • Conocer los parámetros que usa la aplicación y con que fin son usados.
  • Identificar que peticiones POST pueden ser cambiadas por GET (longitud de respuesta similar).
  • Buscar formularios u otros posibles puntos de entrada para posteriormente buscar vulnerabilidades XSS o SQLi.
  • Exportar las URL y parámetros desde Burp Suite Target -> Site map -> Engagement tools -> Analyze target.
  • Lanzar Arjun con las URL y parámetros obtenidos de Burp Suite.
Burp Suite
Exportar URL y parámetros desde Burp Suite
Arjun
1
python3 arjun.py --url urls.txt --get -t 23 -o arjun.json
Copied!
🌐 Referencias

INFO-07 Mapas de rutas de ejecución a través de la aplicación

🎯 Objetivo
Crear un mapa de la aplicación y entender los flujos de trabajo.
📝 Pruebas
  • Pasar la aplicación a través de Burp Suite. En la pestaña Target -> Site mapse creará el mapa de la aplicación.
🌐 Referencias

INFO-08 Fingerprinting del framework de la aplicación web

🎯 Objetivo
Conocer los distintos frameworks usados por la aplicación.
📝 Pruebas
  • Analizar las cabeceras de respuesta del servidor de la aplicación, cookies, extensiones de los archivos, errores o comentarios en el HTML para identificar posibles frameworks utilizados en su desarrollo (Wordpress, JQuery, CKEditor, Vue.js, Joomla, Drupal, etc).
  • Lanzar WPScan.
WPScan
1
python3 arjun.py --url urls.txt --get -t 23 -o arjun.json
Copied!
🌐 Referencias

INFO-09 Fingerprinting de la aplicación web

⚠️ [ESTA PRUEBA HA SIDO INCLUIDA EN INFO-08] ⚠️
🌐 Referencias

INFO-10 Mapa de arquitectura de la aplicación

🎯 Objetivo
Conocer la infraestructura de la aplicación para identificar si existe un WAF, Firewall, Balanceador, etc.
📝 Pruebas
  • Buscar información referente a si existe un único servidor o más de uno (ejemplo los utilizados por Amazon para servir la información en función desde el país que se visite la aplicación, dando lugar a que un dominio pueda resolver dos IPs distintas). Esto se puede comprobar en el punto INFO-04 mediante la herramienta online IPv4Info.
  • Cambiar las peticiones entre HTTP 1.0 y HTTP 1.1, con y sin cabecera HOST o intentando forzar errores (por ejemplo con caracteres chinos o emojis).
  • En HTTP 1.0 se pueden hacer peticiones sin host, podemos obtener información en las cabeceras de respuestas.
  • Lanzar WhatWaf.
  • Plugin para Burp Suite: WAFDetect.
IPv4Info
Ejemplo de dos IPs asociadas a un dominio en la herramienta IPv4Info
WhatWaf
1
whatwaf -u [URL] --ra --force-ssl -t 23 --csv whatwaf.csv
Copied!
🌐 Referencias