Pular para o conteúdo principal

Compartilhe

VISUALIZADOR DE DADOS EXIF ONLINE

  Ver todas as informações de metadados dos seus arquivos Online e grátis - sem registro, sem instalação! Ver metadados Ver metadados Veja metadados ocultos em imagens, vídeos, documentos ou arquivos de áudio. Editar metadados Removedor de metadados Remova metadados de fotos, PDFs, vídeos ou documentos. NOVO! Editar metadados Modifique campos de metadados em arquivos como PDF, imagem ou áudio. NOVO! Extrair dados Analisador de PDF Extraia imagens, fontes e outros recursos de um arquivo PDF. NOVO! Extrair fluxos de vídeo Extraia fluxos de áudio ou vídeo de um arquivo de contêiner de mídia. NOVO! Removedor de recursos de PDF Remova imagens, textos ou vetores ocultos em um PDF. NOVO! Comparar arquivos Comparar imagens Compare duas imagens e detecte diferenças visuais online. NOVO! Comparar vídeos online Compare dois vídeos para identificar mudanças na qualidade ou no conteúdo. NOVO! Comparar PDF Compare dois arquivos PDF no navegador e veja as diferenças destacadas em vermelho nas pág...

50 Ferramentas Éticas de Cybersecurity

 


🔐 Mini Curso

50 Ferramentas Éticas de Cybersecurity

Edição 2025 — Guia Prático com Tutoriais

Instalação em Cloud (Replit/Linux) + Exemplos + Referências

📖 Introdução

Este mini curso cobre 30 ferramentas essenciais de cybersecurity ética, organizadas em 3 categorias: Recon & Enumeration, OSINT/Crawling e Testes de Aplicações Web.

Todas as ferramentas são open-source, baseadas na comunidade, e devem ser usadas EXCLUSIVAMENTE para testes autorizados e educação.

⚠️ AVISO LEGAL

O uso destas ferramentas em sistemas sem autorização explícita é ILEGAL e pode resultar em processos criminais. Use apenas em ambientes de laboratório (HTB, TryHackMe, DVWA) ou com contratos de pentest assinados.

🚀 Como usar este guia

  • Instale as ferramentas no Replit (use o Shell/Console) ou em VPS Linux na nuvem

  • Pratique em plataformas legais: HackTheBox, TryHackMe, DVWA, OWASP WebGoat

  • Siga os exemplos de cada ferramenta em ordem crescente de complexidade

  • Combine ferramentas para criar pipelines de reconhecimento e teste completos

  • Consulte as referências bibliográficas para aprofundamento

🌐 Ambientes de Prática Recomendados

Plataforma

URL

Foco

HackTheBox

hackthebox.com

CTF + Máquinas Reais

TryHackMe

tryhackme.com

Guiado para iniciantes

OWASP WebGoat

github.com/WebGoat

Web App vulnerável

DVWA

dvwa.co.uk

Web App vulnerável

Replit

replit.com

IDE + Shell na nuvem

VulnHub

vulnhub.com

VMs vulneráveis

📂 Recon & Enumeration

Esta seção cobre as ferramentas (1–10) da categoria Recon & Enumeration.


🛠️  #1 — Nmap

Nmap (Network Mapper) é a ferramenta de varredura de rede mais usada no mundo. Permite descobrir hosts, serviços, sistemas operacionais e vulnerabilidades em redes.

📦 Instalação (Replit / Cloud Linux)

# No Replit (Shell/Console):

sudo apt-get update && sudo apt-get install -y nmap


# Verificar instalação:

nmap --version

💻 Exemplos de Uso

# Scan básico de um IP:

nmap 192.168.1.1


# Scan de portas específicas:

nmap -p 80,443,22 192.168.1.1


# Scan com detecção de OS e versão:

nmap -A -T4 scanme.nmap.org


# Scan de toda uma rede:

nmap 192.168.1.0/24


# Scan silencioso (SYN scan):

sudo nmap -sS 192.168.1.1


💡 Use sempre em ambientes autorizados. O domínio scanme.nmap.org é oficial para testes legais.

📚 Referência: https://nmap.org/book/man.html


🛠️  #2 — Masscan

Masscan é o scanner de portas mais rápido do mundo, capaz de varrer a internet inteira em menos de 6 minutos. Ideal para descoberta em larga escala.

📦 Instalação (Replit / Cloud Linux)

# No Replit (Shell):

sudo apt-get install -y masscan


# Ou compilar do fonte:

git clone https://github.com/robertdavidgraham/masscan

cd masscan && make

sudo make install

💻 Exemplos de Uso

# Scan rápido de porta 80:

sudo masscan 192.168.1.0/24 -p80


# Scan com taxa controlada:

sudo masscan 10.0.0.0/8 -p22,80,443 --rate 10000


# Salvar resultado em XML:

sudo masscan 192.168.1.0/24 -p1-1024 -oX resultado.xml


# Usar lista de IPs como alvo:

sudo masscan -iL targets.txt -p80,443


💡 Reduza o --rate em redes pequenas para evitar sobrecarga. Use em redes próprias ou com autorização.

📚 Referência: https://github.com/robertdavidgraham/masscan


🛠️  #3 — RustScan

RustScan é um scanner de portas ultrarrápido escrito em Rust que serve como frontend para o Nmap. Encontra portas abertas em segundos e passa para análise detalhada.

📦 Instalação (Replit / Cloud Linux)

# Via Docker no Replit/Cloud:

docker pull rustscan/rustscan:latest


# Ou instalar binário:

wget https://github.com/RustScan/RustScan/releases/latest/download/rustscan_amd64.deb

sudo dpkg -i rustscan_amd64.deb


# Verificar:

rustscan --version

💻 Exemplos de Uso

# Scan básico:

rustscan -a 192.168.1.1


# Scan com Nmap integrado:

rustscan -a 192.168.1.1 -- -A -sV


# Scan de múltiplos hosts:

rustscan -a '192.168.1.1,192.168.1.2' -p 1-1000


# Via Docker:

docker run -it --rm rustscan/rustscan:latest -a 192.168.1.1


💡 RustScan é até 100x mais rápido que o Nmap para descoberta de portas, mas use o Nmap para análise detalhada.

📚 Referência: https://github.com/RustScan/RustScan


🛠️  #4 — Amass

Amass realiza enumeração DNS em profundidade, mapeando subdomínios, endereços IP, ASNs e relações entre ativos de rede.

📦 Instalação (Replit / Cloud Linux)

# Via Go (recomendado):

go install -v github.com/owasp-amass/amass/v4/...@master


# Via apt:

sudo apt-get install amass


# Via Docker:

docker pull caffix/amass

💻 Exemplos de Uso

# Enumeração básica de subdomínios:

amass enum -d exemplo.com


# Enumeração passiva (sem contato direto):

amass enum -passive -d exemplo.com


# Enumeração ativa com brute-force:

amass enum -active -brute -d exemplo.com


# Salvar resultados:

amass enum -d exemplo.com -o subdomains.txt


# Visualizar grafo de rede:

amass viz -d3 -d exemplo.com -o grafo.html


💡 Configure APIs gratuitas (Shodan, VirusTotal) em ~/.config/amass/config.ini para resultados mais completos.

📚 Referência: https://github.com/owasp-amass/amass


🛠️  #5 — Subfinder

Subfinder é uma ferramenta de descoberta passiva de subdomínios desenvolvida pelo ProjectDiscovery. Usa múltiplas fontes públicas para enumeração rápida.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install -v github.com/projectdiscovery/subfinder/v2/cmd/subfinder@latest


# Via apt/snap:

sudo apt install subfinder


# Binário pré-compilado:

wget https://github.com/projectdiscovery/subfinder/releases/latest/download/subfinder_linux_amd64.zip

unzip subfinder_linux_amd64.zip && sudo mv subfinder /usr/local/bin/

💻 Exemplos de Uso

# Descoberta básica:

subfinder -d exemplo.com


# Com saída detalhada:

subfinder -d exemplo.com -v


# Salvar em arquivo:

subfinder -d exemplo.com -o subdomains.txt


# Múltiplos domínios:

subfinder -dL dominios.txt -o resultado.txt


# Apenas fontes específicas:

subfinder -d exemplo.com -sources shodan,censys


💡 Configure chaves de API em ~/.config/subfinder/provider-config.yaml para acessar mais fontes.

📚 Referência: https://github.com/projectdiscovery/subfinder


🛠️  #6 — Assetfinder

Assetfinder encontra domínios e subdomínios potencialmente relacionados a um domínio alvo, usando diversas fontes públicas e técnicas de OSINT.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/tomnomnom/assetfinder@latest


# Via binário:

wget https://github.com/tomnomnom/assetfinder/releases/download/v0.1.1/assetfinder-linux-amd64-0.1.1.tgz

tar -xzf assetfinder-linux-amd64-0.1.1.tgz

sudo mv assetfinder /usr/local/bin/

💻 Exemplos de Uso

# Busca básica:

assetfinder exemplo.com


# Apenas subdomínios do domínio alvo:

assetfinder --subs-only exemplo.com


# Combinar com httpx para verificar ativos vivos:

assetfinder --subs-only exemplo.com | httpx -silent


# Pipeline com outras ferramentas:

assetfinder exemplo.com | sort -u | tee subdomains.txt


💡 Combine com Subfinder e Amass para cobertura máxima de subdomínios.

📚 Referência: https://github.com/tomnomnom/assetfinder


🛠️  #7 — Naabu

Naabu é um scanner de portas rápido do ProjectDiscovery escrito em Go. Projetado para integração em pipelines automatizados de bug bounty.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install -v github.com/projectdiscovery/naabu/v2/cmd/naabu@latest


# Via binário:

wget https://github.com/projectdiscovery/naabu/releases/latest/download/naabu_linux_amd64.zip

unzip naabu_linux_amd64.zip && sudo mv naabu /usr/local/bin/

💻 Exemplos de Uso

# Scan de portas principais:

naabu -host exemplo.com


# Scan de portas específicas:

naabu -host exemplo.com -p 80,443,8080,8443


# Top 100 portas:

naabu -host exemplo.com -top-ports 100


# Pipeline com subfinder:

subfinder -d exemplo.com | naabu -silent


# Scan em múltiplos hosts:

naabu -list hosts.txt -p 80,443 -o open_ports.txt


💡 Use naabu como etapa inicial e passe os resultados para o httpx ou nuclei para análise mais profunda.

📚 Referência: https://github.com/projectdiscovery/naabu


🛠️  #8 — httpx

httpx é um toolkit HTTP multifuncional do ProjectDiscovery. Verifica hosts ativos, detecta tecnologias, títulos de página, códigos de status e muito mais.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install -v github.com/projectdiscovery/httpx/cmd/httpx@latest


# Via binário pré-compilado:

wget https://github.com/projectdiscovery/httpx/releases/latest/download/httpx_linux_amd64.zip

unzip httpx_linux_amd64.zip && sudo mv httpx /usr/local/bin/

💻 Exemplos de Uso

# Verificar hosts ativos:

cat subdomains.txt | httpx


# Com detalhes extras:

cat subdomains.txt | httpx -title -status-code -tech-detect


# Detectar tecnologias web:

echo 'https://exemplo.com' | httpx -tech-detect


# Extrair todas as URLs:

cat subdomains.txt | httpx -silent -paths /robots.txt,/sitemap.xml


# Salvar resultado em JSON:

cat hosts.txt | httpx -json -o resultado.json


💡 httpx é um dos componentes mais versáteis do toolkit do ProjectDiscovery. Integra-se perfeitamente com nuclei.

📚 Referência: https://github.com/projectdiscovery/httpx


🛠️  #9 — Nuclei

Nuclei é um scanner de vulnerabilidades baseado em templates YAML altamente customizável. Possui biblioteca com milhares de templates para CVEs, misconfigs e exposições.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install -v github.com/projectdiscovery/nuclei/v3/cmd/nuclei@latest


# Atualizar templates:

nuclei -update-templates


# Via Docker:

docker pull projectdiscovery/nuclei:latest

💻 Exemplos de Uso

# Scan básico com todos os templates:

nuclei -u https://exemplo.com


# Scan com templates específicos:

nuclei -u https://exemplo.com -t cves/


# Scan de múltiplos alvos:

nuclei -l targets.txt -t exposures/


# Scan com severidade crítica/alta:

nuclei -u https://exemplo.com -severity critical,high


# Resultado em JSON:

nuclei -u https://exemplo.com -json -o findings.json


# Pipeline completo de recon:

subfinder -d exemplo.com | httpx -silent | nuclei -t cves/


💡 Crie seus próprios templates YAML para automatizar detecção de vulnerabilidades específicas da sua organização.

📚 Referência: https://github.com/projectdiscovery/nuclei


🛠️  #10 — WhatWeb

WhatWeb identifica tecnologias usadas em websites: CMS, frameworks, servidores web, bibliotecas JavaScript, plugins e muito mais.

📦 Instalação (Replit / Cloud Linux)

# Via apt (Ubuntu/Debian):

sudo apt-get install whatweb


# Via gem (Ruby):

sudo gem install whatweb


# Do código fonte:

git clone https://github.com/urbanadventurer/WhatWeb.git

cd WhatWeb && sudo make install

💻 Exemplos de Uso

# Fingerprinting básico:

whatweb https://exemplo.com


# Modo verboso:

whatweb -v https://exemplo.com


# Scan agressivo (mais detalhado):

whatweb -a 3 https://exemplo.com


# Múltiplos alvos:

whatweb -i targets.txt --log-json=resultados.json


# Detectar CMS específico:

whatweb --plugin WordPress https://exemplo.com


💡 Use nível de agressividade 3 (-a 3) com cuidado, pois faz mais requisições ao alvo.

📚 Referência: https://github.com/urbanadventurer/WhatWeb

📂 OSINT, Crawling & Content Discovery

Esta seção cobre as ferramentas (11–20) da categoria OSINT, Crawling & Content Discovery.


🛠️  #11 — Wappalyzer CLI

Wappalyzer detecta automaticamente a stack tecnológica de websites: linguagens, frameworks, CDNs, servidores e muito mais através de fingerprinting.

📦 Instalação (Replit / Cloud Linux)

# Via npm (Node.js necessário):

npm install -g wappalyzer


# Verificar instalação:

wappalyzer --version


# No Replit - adicionar ao package.json:

npm install wappalyzer

💻 Exemplos de Uso

# Análise básica:

wappalyzer https://exemplo.com


# Saída em JSON:

wappalyzer https://exemplo.com --pretty


# Uso via API JavaScript:

const Wappalyzer = require('wappalyzer');

const wappalyzer = new Wappalyzer();

await wappalyzer.init();

const results = await wappalyzer.open('https://exemplo.com');

console.log(results.technologies);


💡 Combine com httpx para detectar tecnologias em múltiplos subdomínios automaticamente.

📚 Referência: https://github.com/nicowillis/wappalyzer-cli


🛠️  #12 — gau (GetAllURLs)

gau obtém URLs indexadas de múltiplas fontes públicas: Wayback Machine, Common Crawl, URLScan e OTX AlienVault.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/lc/gau/v2/cmd/gau@latest


# Via binário:

wget https://github.com/lc/gau/releases/latest/download/gau_linux_amd64.tar.gz

tar -xzf gau_linux_amd64.tar.gz && sudo mv gau /usr/local/bin/

💻 Exemplos de Uso

# Buscar URLs de um domínio:

gau exemplo.com


# Apenas de fontes específicas:

gau --providers wayback exemplo.com


# Filtrar por extensão:

gau exemplo.com | grep '\.php'


# Filtrar URLs com parâmetros:

gau exemplo.com | grep '?'


# Salvar e remover duplicatas:

gau exemplo.com | sort -u | tee urls.txt


💡 Excelente para encontrar endpoints antigos e esquecidos que podem conter vulnerabilidades.

📚 Referência: https://github.com/lc/gau


🛠️  #13 — waybackurls

waybackurls extrai URLs históricas do Wayback Machine (archive.org) para um domínio, revelando endpoints que foram removidos mas ainda podem estar ativos.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/tomnomnom/waybackurls@latest


# Verificar Go instalado:

go version


# Instalar Go se necessário:

sudo apt-get install golang-go

💻 Exemplos de Uso

# Buscar URLs históricas:

echo 'exemplo.com' | waybackurls


# Com pipe para filtrar JS:

echo 'exemplo.com' | waybackurls | grep '\.js$'


# Filtrar endpoints com parâmetros:

echo 'exemplo.com' | waybackurls | grep '?.*='


# Múltiplos domínios:

cat dominios.txt | waybackurls | sort -u > urls_historicas.txt


# Filtrar por tipo de arquivo:

echo 'exemplo.com' | waybackurls | grep -E '\.(php|asp|aspx|jsp)'


💡 URLs históricas frequentemente revelam endpoints de administração, APIs deprecadas e arquivos de configuração.

📚 Referência: https://github.com/tomnomnom/waybackurls


🛠️  #14 — Katana

Katana é um web crawler moderno e ultrarrápido do ProjectDiscovery com suporte a JavaScript, formulários e crawling em profundidade.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/projectdiscovery/katana/cmd/katana@latest


# Via binário:

wget https://github.com/projectdiscovery/katana/releases/latest/download/katana_linux_amd64.zip

unzip katana_linux_amd64.zip && sudo mv katana /usr/local/bin/

💻 Exemplos de Uso

# Crawl básico:

katana -u https://exemplo.com


# Com renderização JavaScript:

katana -u https://exemplo.com -jc


# Definir profundidade:

katana -u https://exemplo.com -d 3


# Excluir extensões estáticas:

katana -u https://exemplo.com -ef png,jpg,css,gif


# Pipeline com nuclei:

katana -u https://exemplo.com -silent | nuclei -t exposures/


💡 Use -jc para crawling de SPAs (React, Angular, Vue.js). Requer Chrome instalado.

📚 Referência: https://github.com/projectdiscovery/katana


🛠️  #15 — ffuf

ffuf (Fuzz Faster U Fool) é um web fuzzer extremamente rápido para descoberta de diretórios, parâmetros, subdomínios e qualquer elemento HTTP.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/ffuf/ffuf/v2@latest


# Via apt:

sudo apt-get install ffuf


# Baixar wordlists (SecLists):

git clone https://github.com/danielmiessler/SecLists.git /opt/SecLists

💻 Exemplos de Uso

# Fuzzing de diretórios:

ffuf -u https://exemplo.com/FUZZ -w /opt/SecLists/Discovery/Web-Content/common.txt


# Fuzzing de subdomínios:

ffuf -u https://FUZZ.exemplo.com -w /opt/SecLists/Discovery/DNS/subdomains-top1million-5000.txt


# Fuzzing de parâmetros GET:

ffuf -u 'https://exemplo.com/page?FUZZ=valor' -w params.txt


# Filtrar por código de status:

ffuf -u https://exemplo.com/FUZZ -w wordlist.txt -fc 404


# Filtrar por tamanho de resposta:

ffuf -u https://exemplo.com/FUZZ -w wordlist.txt -fs 1234


# Modo JSON output:

ffuf -u https://exemplo.com/FUZZ -w wordlist.txt -of json -o resultado.json


💡 Use SecLists para melhores resultados. O parâmetro -t define threads (padrão 40).

📚 Referência: https://github.com/ffuf/ffuf


🛠️  #16 — Gobuster

Gobuster realiza brute-force de diretórios, arquivos, subdomínios DNS e virtual hosts usando wordlists. Escrito em Go para alta performance.

📦 Instalação (Replit / Cloud Linux)

# Via apt:

sudo apt-get install gobuster


# Via Go:

go install github.com/OJ/gobuster/v3@latest


# Instalar SecLists para wordlists:

sudo apt-get install seclists

💻 Exemplos de Uso

# Modo dir - brute-force de diretórios:

gobuster dir -u https://exemplo.com -w /usr/share/seclists/Discovery/Web-Content/common.txt


# Modo dns - subdomínios:

gobuster dns -d exemplo.com -w /usr/share/seclists/Discovery/DNS/subdomains-top1million-5000.txt


# Com extensões de arquivo:

gobuster dir -u https://exemplo.com -w wordlist.txt -x php,html,txt


# Modo vhost - virtual hosts:

gobuster vhost -u http://exemplo.com -w vhosts.txt


# Salvar resultados:

gobuster dir -u https://exemplo.com -w wordlist.txt -o resultados.txt


💡 Use -k para ignorar erros de certificado SSL em ambientes de teste.

📚 Referência: https://github.com/OJ/gobuster


🛠️  #17 — Dirsearch

Dirsearch é um brute-forcer de caminhos web avançado com suporte a múltiplas extensões, exclusões, recursão e relatórios detalhados.

📦 Instalação (Replit / Cloud Linux)

# Via pip:

pip3 install dirsearch


# Do código fonte:

git clone https://github.com/maurosoria/dirsearch.git

cd dirsearch && pip3 install -r requirements.txt


# Executar:

python3 dirsearch.py --help

💻 Exemplos de Uso

# Scan básico:

dirsearch -u https://exemplo.com


# Com extensões específicas:

dirsearch -u https://exemplo.com -e php,html,js,json


# Recursão em diretórios encontrados:

dirsearch -u https://exemplo.com -r


# Múltiplos alvos:

dirsearch -l targets.txt -e php,asp


# Salvar em HTML:

dirsearch -u https://exemplo.com --format html -o report.html


# Com wordlist customizada:

dirsearch -u https://exemplo.com -w /opt/SecLists/Discovery/Web-Content/raft-large-directories.txt


💡 Dirsearch vem com wordlists embutidas de qualidade. Use -t para controlar threads.

📚 Referência: https://github.com/maurosoria/dirsearch


🛠️  #18 — meg

meg faz fetch em massa de múltiplos caminhos em múltiplos hosts simultaneamente, salvando todas as respostas para análise offline.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/tomnomnom/meg@latest


# Verificar instalação:

meg --help

💻 Exemplos de Uso

# Estrutura básica: meg <paths_file> <hosts_file>

# Criar arquivo de paths:

echo -e '/robots.txt\n/.git/HEAD\n/admin\n/.env' > paths.txt


# Criar arquivo de hosts:

cat subdomains.txt | httpx -silent > hosts.txt


# Executar meg:

meg paths.txt hosts.txt


# Buscar nos resultados:

grep -r 'password' out/


# Buscar arquivos .git expostos:

grep -rl '200' out/ | xargs grep -l 'HEAD'


💡 meg salva cada resposta em um arquivo separado na pasta 'out/'. Ideal para análise em massa de exposições.

📚 Referência: https://github.com/tomnomnom/meg


🛠️  #19 — theHarvester

theHarvester coleta e-mails, subdomínios, IPs, URLs e nomes de pessoas a partir de fontes públicas como Google, Bing, LinkedIn e Shodan.

📦 Instalação (Replit / Cloud Linux)

# Via apt:

sudo apt-get install theharvester


# Do código fonte:

git clone https://github.com/laramies/theHarvester.git

cd theHarvester && pip3 install -r requirements/base.txt

💻 Exemplos de Uso

# Coleta com todas as fontes:

theHarvester -d exemplo.com -b all


# Usar Google como fonte:

theHarvester -d exemplo.com -b google


# Usar múltiplas fontes:

theHarvester -d exemplo.com -b google,bing,linkedin


# Limitar resultados:

theHarvester -d exemplo.com -b all -l 100


# Exportar para HTML:

theHarvester -d exemplo.com -b all -f report


# Com DNS brute-force:

theHarvester -d exemplo.com -b all -n


💡 Configure chaves de API em api-keys.yaml para fontes pagas como Shodan, Hunter e Spyse.

📚 Referência: https://github.com/laramies/theHarvester


🛠️  #20 — SpiderFoot

SpiderFoot é um framework OSINT automatizado com mais de 200 módulos que coleta informações de IP, domínio, e-mail, pessoa e organização.

📦 Instalação (Replit / Cloud Linux)

# Via pip:

pip3 install spiderfoot


# Do código fonte:

git clone https://github.com/smicallef/spiderfoot.git

cd spiderfoot && pip3 install -r requirements.txt


# Iniciar interface web:

python3 sf.py -l 127.0.0.1:5001

💻 Exemplos de Uso

# Modo CLI - scan de domínio:

sf.py -s exemplo.com -m all


# Scan com módulos específicos:

sf.py -s exemplo.com -m sfp_dnsresolve,sfp_whois


# Interface Web (acessar no browser):

python3 sf.py -l 0.0.0.0:5001

# Acesse: http://localhost:5001


# Exportar em CSV:

sf.py -s exemplo.com -m all -o CSV -f resultado.csv


# Scan de IP:

sf.py -s 192.168.1.1 -t IP_ADDRESS


💡 Use a interface web para visualizar conexões entre ativos graficamente. Muito útil para mapeamento de infraestrutura.

📚 Referência: https://github.com/smicallef/spiderfoot

📂 Web Application Testing

Esta seção cobre as ferramentas (21–30) da categoria Web Application Testing.


🛠️  #21 — OWASP ZAP

OWASP ZAP (Zed Attack Proxy) é uma das ferramentas de segurança web mais populares do mundo. Scanner automático + proxy de interceptação para testes manuais.

📦 Instalação (Replit / Cloud Linux)

# Via Docker (recomendado para cloud):

docker pull ghcr.io/zaproxy/zaproxy:stable


# Via snap:

sudo snap install zaproxy --classic


# Via apt:

sudo apt install zaproxy

💻 Exemplos de Uso

# Scan rápido via CLI:

docker run -t ghcr.io/zaproxy/zaproxy:stable zap-baseline.py -t https://exemplo.com


# Scan completo:

docker run -t ghcr.io/zaproxy/zaproxy:stable zap-full-scan.py -t https://exemplo.com


# Gerar relatório HTML:

docker run -v $(pwd):/zap/wrk/:rw ghcr.io/zaproxy/zaproxy:stable \

  zap-baseline.py -t https://exemplo.com -r report.html


# Modo API (headless):

zap.sh -daemon -port 8080 -config api.disablekey=true


💡 Para testes interativos, use o modo GUI. Para CI/CD, use zap-baseline.py ou zap-api-scan.py.

📚 Referência: https://www.zaproxy.org/docs/


🛠️  #22 — Burp Suite Community

Burp Suite é a plataforma líder para testes de segurança web. O proxy interceptador permite modificar requisições em tempo real, automatizar testes e explorar vulnerabilidades.

📦 Instalação (Replit / Cloud Linux)

# Download gratuito em:

# https://portswigger.net/burp/communitydownload


# Via script de instalação Linux:

chmod +x burpsuite_community_linux.sh

./burpsuite_community_linux.sh


# Executar:

java -jar burpsuite_community.jar

💻 Exemplos de Uso

# Configurar proxy: 127.0.0.1:8080

# Instalar certificado CA no browser


# Interceptar tráfego HTTP/S:

# Proxy > Intercept > Is intercepcting: ON


# Scanner passivo - analisa tráfego:

# Target > Site Map > Right click > Scan


# Intruder - fuzzing de parâmetros:

# Right click na requisição > Send to Intruder

# Marcar posições com § e configurar payload


# Repeater - modificar e reenviar:

# Right click > Send to Repeater > Modify & Send


💡 Instale extensões (BApps) como Param Miner e JS Link Finder para ampliar funcionalidades gratuitamente.

📚 Referência: https://portswigger.net/burp/documentation


🛠️  #23 — Nikto

Nikto é um scanner de servidores web open-source que testa contra mais de 6700 itens perigosos, versões desatualizadas e problemas específicos de servidores.

📦 Instalação (Replit / Cloud Linux)

# Via apt:

sudo apt-get install nikto


# Do código fonte (Perl):

git clone https://github.com/sullo/nikto.git

cd nikto/program

perl nikto.pl --help

💻 Exemplos de Uso

# Scan básico:

nikto -h https://exemplo.com


# Scan em porta específica:

nikto -h exemplo.com -p 8080


# Scan com SSL:

nikto -h exemplo.com -ssl


# Salvar em HTML:

nikto -h https://exemplo.com -Format html -output report.html


# Scan via proxy (ex: Burp):

nikto -h https://exemplo.com -useproxy http://127.0.0.1:8080


# Scan de múltiplos hosts:

nikto -h hosts.txt


💡 Nikto não é furtivo - gera muito tráfego. Use apenas em alvos autorizados e evite produção.

📚 Referência: https://github.com/sullo/nikto


🛠️  #24 — sqlmap

sqlmap automatiza completamente o processo de detecção e exploração de injeções SQL. Suporta todos os tipos de SQLi e todos os principais bancos de dados.

📦 Instalação (Replit / Cloud Linux)

# Via apt:

sudo apt-get install sqlmap


# Do código fonte:

git clone --depth 1 https://github.com/sqlmapproject/sqlmap.git sqlmap-dev

cd sqlmap-dev && python3 sqlmap.py --version


# Via pip:

pip3 install sqlmap

💻 Exemplos de Uso

# Testar URL com parâmetro:

sqlmap -u 'https://exemplo.com/page?id=1'


# Com cookie de sessão:

sqlmap -u 'https://exemplo.com/page?id=1' --cookie='session=abc123'


# Extrair banco de dados:

sqlmap -u 'https://exemplo.com/page?id=1' --dbs


# Extrair tabelas:

sqlmap -u 'https://exemplo.com/page?id=1' -D database_name --tables


# Extrair dados:

sqlmap -u 'https://exemplo.com/page?id=1' -D db -T users --dump


# Testar formulário POST:

sqlmap -u 'https://exemplo.com/login' --data='user=admin&pass=test'


💡 Use --level e --risk maiores para testes mais abrangentes. --batch aceita todas as opções automaticamente.

📚 Referência: https://github.com/sqlmapproject/sqlmap


🛠️  #25 — wfuzz

wfuzz é um web fuzzer flexível para descobrir aplicações e componentes web por brute-force de parâmetros, headers, formulários e qualquer parte de uma requisição HTTP.

📦 Instalação (Replit / Cloud Linux)

# Via pip:

pip3 install wfuzz


# Via apt:

sudo apt-get install wfuzz


# SecLists para wordlists:

git clone https://github.com/danielmiessler/SecLists.git /opt/SecLists

💻 Exemplos de Uso

# Fuzzing de diretórios:

wfuzz -c -z file,/opt/SecLists/Discovery/Web-Content/common.txt --hc 404 https://exemplo.com/FUZZ


# Fuzzing de parâmetros:

wfuzz -c -z file,params.txt --hc 404 'https://exemplo.com/?FUZZ=valor'


# Fuzzing de credenciais:

wfuzz -c -z file,users.txt -z file,passwords.txt --hc 403 \

  -d 'user=FUZZ&pass=FUZ2Z' https://exemplo.com/login


# Filtrar por palavras na resposta:

wfuzz -c -z file,wordlist.txt --hs 'Not Found' https://exemplo.com/FUZZ


💡 FUZZ é o placeholder. Use FUZ2Z para o segundo payload. --hc filtra código, --hs filtra string.

📚 Referência: https://github.com/xmendez/wfuzz


🛠️  #26 — XSStrike

XSStrike é uma suite avançada de detecção e exploração de XSS (Cross-Site Scripting) com análise inteligente de contexto e geração de payloads customizados.

📦 Instalação (Replit / Cloud Linux)

# Clonar repositório:

git clone https://github.com/s0md3v/XSStrike.git

cd XSStrike && pip3 install -r requirements.txt


# Executar:

python3 xsstrike.py --help

💻 Exemplos de Uso

# Scan de URL com parâmetro:

python3 xsstrike.py -u 'https://exemplo.com/search?q=teste'


# Modo crawl (varrer todo o site):

python3 xsstrike.py -u 'https://exemplo.com' --crawl


# Testar formulário:

python3 xsstrike.py -u 'https://exemplo.com/search' --data 'q=teste'


# Com header customizado:

python3 xsstrike.py -u 'https://exemplo.com/search?q=a' --headers 'Cookie: session=abc'


# Modo fuzzing:

python3 xsstrike.py -u 'https://exemplo.com/search?q=FUZZ' --fuzzer


💡 XSStrike analisa o DOM e contexto da página para criar payloads específicos que bypassam WAFs.

📚 Referência: https://github.com/s0md3v/XSStrike


🛠️  #27 — Dalfox

Dalfox é um scanner de XSS de alta velocidade escrito em Go, com análise de parâmetros, detecção baseada em DOM e integração com pipelines de bug bounty.

📦 Instalação (Replit / Cloud Linux)

# Via Go:

go install github.com/hahwul/dalfox/v2@latest


# Via Homebrew (macOS):

brew install dalfox


# Via Docker:

docker pull hahwul/dalfox:latest

💻 Exemplos de Uso

# Scan de URL:

dalfox url 'https://exemplo.com/search?q=teste'


# Modo pipe (múltiplos alvos):

cat urls.txt | dalfox pipe


# Scan com todos os parâmetros:

dalfox url 'https://exemplo.com/search?q=a&type=b' --all-parameter


# Ignorar certificado SSL:

dalfox url 'https://exemplo.com/?q=a' --skip-bav


# Pipeline completo:

gau exemplo.com | grep '?.*=' | dalfox pipe -o xss_findings.txt


💡 Combine com gau e waybackurls para testar XSS em endpoints históricos do alvo.

📚 Referência: https://github.com/hahwul/dalfox


🛠️  #28 — tplmap

tplmap detecta e explora vulnerabilidades de Server-Side Template Injection (SSTI) em múltiplos engines de template como Jinja2, Twig, Smarty, Mako e outros.

📦 Instalação (Replit / Cloud Linux)

# Clonar repositório:

git clone https://github.com/epinna/tplmap.git

cd tplmap && pip3 install -r requirements.txt


# Executar:

python3 tplmap.py --help

💻 Exemplos de Uso

# Detectar SSTI em parâmetro GET:

python3 tplmap.py -u 'https://exemplo.com/page?nome=SSTI'


# Testar parâmetro POST:

python3 tplmap.py -u 'https://exemplo.com/page' -d 'nome=*'


# Executar comando no servidor:

python3 tplmap.py -u 'https://exemplo.com/page?name=*' --os-cmd id


# Obter shell interativo:

python3 tplmap.py -u 'https://exemplo.com/page?name=*' --os-shell


# Upload de arquivo:

python3 tplmap.py -u 'https://exemplo.com/page?name=*' --upload /tmp/shell.php /var/www/html/


💡 SSTI pode levar a RCE. O asterisco (*) no parâmetro indica onde inserir os payloads.

📚 Referência: https://github.com/epinna/tplmap


🛠️  #29 — NoSQLMap

NoSQLMap automatiza testes de injeção em bancos NoSQL como MongoDB, CouchDB e Redis, detectando tanto injeções diretas quanto via MongoDB operators.

📦 Instalação (Replit / Cloud Linux)

# Clonar repositório:

git clone https://github.com/codingo/NoSQLMap.git

cd NoSQLMap && pip3 install -r requirements.txt


# Instalar dependências:

sudo apt-get install python3-pymongo


# Executar:

python3 nosqlmap.py

💻 Exemplos de Uso

# Modo interativo (menu):

python3 nosqlmap.py


# Configuração básica via menu:

# 1 - Set target host: exemplo.com

# 2 - Set target port: 27017

# 3 - Set URI Path: /api/login


# Testar endpoint de autenticação:

# No menu: 4 > Web App Attacks > 1 > Test URL for NoSQL Injection


# Payload manual de bypass (MongoDB):

# POST data: {'username': {'$gt': ''}, 'password': {'$gt': ''}}


# Via curl para teste rápido:

curl -X POST https://exemplo.com/login \

  -H 'Content-Type: application/json' \

  -d '{"user":{"$gt":""},"pass":{"$gt":""}}'


💡 Teste auth bypass com {$gt: ''} e {$ne: null} em aplicações que usam MongoDB sem sanitização.

📚 Referência: https://github.com/codingo/NoSQLMap


🛠️  #30 — commix

commix (Command Injection eXploiter) automatiza a detecção e exploração de vulnerabilidades de command injection em aplicações web.

📦 Instalação (Replit / Cloud Linux)

# Via apt:

sudo apt-get install commix


# Do código fonte:

git clone https://github.com/commixproject/commix.git

cd commix && python3 commix.py --install

💻 Exemplos de Uso

# Testar URL com parâmetro:

commix --url='https://exemplo.com/ping?host=localhost'


# Testar parâmetro POST:

commix --url='https://exemplo.com/tool' --data='cmd=test'


# Com cookie de sessão:

commix --url='https://exemplo.com/exec?ip=1' --cookie='PHPSESSID=abc123'


# Obter shell interativo:

commix --url='https://exemplo.com/ping?host=1' --os-shell


# Modo stealth (evasão de WAF):

commix --url='https://exemplo.com/ping?host=1' --tamper=space2ifs


# Forçar técnica específica:

commix --url='https://exemplo.com/ping?host=1' --technique=classic


💡 Combine com Burp Suite para interceptar e testar manualmente endpoints suspeitos antes de usar commix.

📚 Referência: https://github.com/commixproject/commix

📚 Referências Bibliográficas

Documentação Oficial das Ferramentas

  1. Nmap: Lyon, G. F. (2009). Nmap Network Scanning. Nmap Project. https://nmap.org/book/

  2. OWASP Testing Guide: OWASP Foundation. (2021). OWASP Testing Guide v4.2. https://owasp.org/www-project-web-security-testing-guide/

  3. ProjectDiscovery Tools: ProjectDiscovery. (2024). Nuclei, httpx, subfinder, naabu, katana. https://projectdiscovery.io

  4. sqlmap: Damele, B. & Stampar, M. (2012). sqlmap: Automatic SQL injection tool. https://sqlmap.org

  5. Burp Suite: PortSwigger. (2024). Web Security Academy. https://portswigger.net/web-security

  6. SecLists: Haddix, J. & contributors. (2024). SecLists - Security Testing Lists. https://github.com/danielmiessler/SecLists

  7. OWASP ZAP: OWASP. (2024). Zed Attack Proxy Project. https://zaproxy.org

  8. tomnomnom tools: Tomnomnom. (2024). waybackurls, assetfinder, meg, gf. https://github.com/tomnomnom

  9. SpiderFoot: Micallef, S. (2024). SpiderFoot OSINT Automation Framework. https://github.com/smicallef/spiderfoot

Livros Recomendados

  • Stuttard, D. & Pinto, M. (2011). The Web Application Hacker's Handbook. Wiley.

  • Kennedy, D. et al. (2011). Metasploit: The Penetration Tester's Guide. No Starch Press.

  • Engebretson, P. (2013). The Basics of Hacking and Penetration Testing. Syngress.

  • Weidman, G. (2014). Penetration Testing: A Hands-On Introduction. No Starch Press.

  • Seitz, J. (2021). Black Hat Python, 2nd Edition. No Starch Press.

Recursos Online


Comentários

Como usar um Agente OSINT IA

Pericia Digital

Ebook