hacktricks/network-services-pentesting/pentesting-web/README.md

32 KiB
Raw Blame History

80,443 - Web Pentesting Metodolojisi

AWS hacklemeyi sıfırdan kahramana öğrenin htARTE (HackTricks AWS Red Team Expert) ile!

HackTricks'ı desteklemenin diğer yolları:

Eğer hacking kariyeri ilginizi çekiyorsa ve hacklenemez olanı hacklemek istiyorsanız - işe alıyoruz! (akıcı Lehçe yazılı ve konuşma gereklidir).

{% embed url="https://www.stmcyber.com/careers" %}

Temel Bilgiler

Web servisi en yaygın ve kapsamlı hizmettir ve birçok farklı türde zayıflık bulunmaktadır.

Varsayılan port: 80 (HTTP), 443(HTTPS)

PORT    STATE SERVICE
80/tcp  open  http
443/tcp open  ssl/https
nc -v domain.com 80 # GET / HTTP/1.0
openssl s_client -connect domain.com:443 # GET / HTTP/1.0

Web API Rehberi

{% content-ref url="web-api-pentesting.md" %} web-api-pentesting.md {% endcontent-ref %}

Metodoloji özeti

Bu metodolojide, bir alan adına (veya alt alan adına) saldırı gerçekleştireceğinizi varsayacağız. Bu nedenle, bu metodolojiyi belirlenen her alan, alt alan veya kapsamı içinde belirlenemeyen web sunucusuna uygulamanız gerekmektedir.

  • İlk olarak, web sunucusu tarafından kullanılan teknolojileri belirleyin. Eğer teknolojiyi başarılı bir şekilde belirleyebilirseniz, testin geri kalanı sırasında akılda tutulacak püf noktaları arayın.
  • Kullanılan teknolojinin bilinen bir zafiyeti var mı?
  • Tanınmış bir teknoloji mi kullanılıyor? Daha fazla bilgi çıkarmak için yararlı bir püf noktası var mı?
  • Çalıştırılacak özel tarama aracı var mı (örneğin wpscan)?
  • Genel amaçlı tarama araçlarını başlatın. Bulabilecekleri bir şey olup olmadığını veya ilginç bilgiler bulabileceklerini asla bilemezsiniz.
  • İlk kontrollerle başlayın: robots, sitemap, 404 hata ve SSL/TLS taraması (HTTPS ise).
  • Web sayfasını spidering işlemine başlayın: Tüm olası dosyaları, klasörleri ve kullanılan parametreleri bulma zamanı. Ayrıca, özel bulguları kontrol edin.
  • Herhangi bir brute-force veya spidering sırasında yeni bir dizin keşfedildiğinde, bu dizin spider edilmelidir.
  • Dizin Brute-Forcing: Keşfedilen tüm klasörleri tarayarak yeni dosyaları ve dizinleri brute force etmeye çalışın.
  • Herhangi bir brute-force veya spidering sırasında yeni bir dizin keşfedildiğinde, bu dizin brute force edilmelidir.
  • Yedeklerin kontrol edilmesi: Keşfedilen dosyaların yedeklerini bulabilir misiniz? Yaygın yedek uzantılarını ekleyerek kontrol edin.
  • Parametreleri Brute Force etme: Gizli parametreleri bulmaya çalışın.
  • Tüm olası kullanıcı girişi kabul eden uç noktaları belirledikten sonra, bunlarla ilgili tüm türden zafiyetleri kontrol edin.
  • Bu kontrol listesini takip edin

Sunucu Sürümü (Zafiyetli mi?)

Belirleme

Çalışan sunucu sürümü için bilinen zafiyetlerin olup olmadığını kontrol edin.
Yanıtın HTTP başlıkları ve çerezleri, kullanılan teknolojileri ve/veya sürümü belirlemek için oldukça yararlı olabilir. Nmap taraması sunucu sürümünü belirleyebilir, ancak whatweb, webtech veya https://builtwith.com/: gibi araçlar da faydalı olabilir.

whatweb -a 1 <URL> #Stealthy
whatweb -a 3 <URL> #Aggresive
webtech -u <URL>
webanalyze -host https://google.com -crawl 2

Web uygulamasının sürüm ıklarını arayın için

Herhangi bir WAF olup olmadığını kontrol edin

Web teknik hileler

Farklı tanınmış teknolojilerdeki açıkları bulmak için bazı hileler:

Aynı alan adının farklı portlarda, klasörlerde ve alt alan adlarında farklı teknolojiler kullanabileceğini unutmayın.
Web uygulaması herhangi bir önce listelenen teknoloji/platform veya başka bir teknoloji kullanıyorsa, İnternet'te yeni hileler aramayı unutmayın (ve bana bildirin!).

Kaynak Kod İncelemesi

Uygulamanın kaynak kodu github'da mevcutsa, uygulamanın kendi White box testini gerçekleştirmenin yanı sıra, mevcut Black-Box testi için yararlı olabilecek bazı bilgiler bulunmaktadır:

  • Web üzerinden erişilebilen Değişiklik günlüğü veya Readme veya Sürüm dosyası veya herhangi bir sürüm bilgisi var mı?
  • Kimlik bilgileri nerede ve nasıl saklanıyor? Kimlik bilgilerini içeren (erişilebilir?) dosya var mı?
  • Şifreler düz metin mi, şifrelenmiş mi veya hangi hashleme algoritması kullanılıyor?
  • Bir şeyi şifrelemek için herhangi bir anahtar kullanılıyor mu? Hangi algoritma kullanılıyor?
  • Bu dosyalardan herhangi birine bir açık kullanarak erişebilir misiniz?
  • Github'da (çözülmüş ve çözülmemiş) sorunlarda veya commit geçmişinde (belki eski bir commit içinde girilen bir şifre) ilginç bilgiler var mı?

{% content-ref url="code-review-tools.md" %} code-review-tools.md {% endcontent-ref %}

Otomatik tarayıcılar

Genel amaçlı otomatik tarayıcılar

nikto -h <URL>
whatweb -a 4 <URL>
wapiti -u <URL>
W3af
zaproxy #You can use an API
nuclei -ut && nuclei -target <URL>

# https://github.com/ignis-sec/puff (client side vulns fuzzer)
node puff.js -w ./wordlist-examples/xss.txt -u "http://www.xssgame.com/f/m4KKGHi2rVUN/?query=FUZZ"

CMS tarayıcıları

Eğer bir CMS kullanılıyorsa, bir tarayıcı çalıştırmayı unutmayın, belki ilginç bir şeyler bulunabilir:

Clusterd: JBoss, ColdFusion, WebLogic, Tomcat, Railo, Axis2, Glassfish
CMSScan: WordPress, Drupal, Joomla, vBulletin web siteleri için güvenlik sorunlarını taramak için (GUI)
VulnX: Joomla, Wordpress, Drupal, PrestaShop, Opencart
CMSMap: (W)ordpress, (J)oomla, (D)rupal veya (M)oodle
droopscan: Drupal, Joomla, Moodle, Silverstripe, Wordpress

cmsmap [-f W] -F -d <URL>
wpscan --force update -e --url <URL>
joomscan --ec -u <URL>
joomlavs.rb #https://github.com/rastating/joomlavs

Bu noktada, müşteri tarafından kullanılan web sunucusu hakkında bazı bilgilere zaten sahip olmalısınız (veri verilmişse) ve test sırasında akılda tutulması gereken bazı püf noktalar olmalıdır. Şanslıysanız bir CMS bulmuş olabilir ve bazı tarayıcıları çalıştırmış olabilirsiniz.

Adım adım Web Uygulama Keşfi

Bu noktadan itibaren web uygulamasıyla etkileşime geçmeye başlayacağız.

İlk kontroller

İlginç bilgiler içeren varsayılan sayfalar:

  • /robots.txt
  • /sitemap.xml
  • /crossdomain.xml
  • /clientaccesspolicy.xml
  • /.well-known/
  • Ana ve ikincil sayfalardaki yorumları da kontrol edin.

Hataları zorlama

Web sunucuları, tuhaf veriler gönderildiğinde beklenmedik şekilde davranabilir. Bu, zafiyetleri veya duyarlı bilgilerin ifşa edilmesini açabilir.

  • /whatever_fake.php (.aspx,.html,.vb gibi) gibi sahte sayfalara erişin
  • "[]", "]]" ve "[[" gibi çerez değerlerine ve parametre değerlerine hatalar oluşturmak için ekleyin
  • Hata oluşturmak için URL'nin sonuna /~randomthing/%s olarak giriş yaparak hata oluşturun
  • PATCH, DEBUG gibi farklı HTTP Fiillerini veya yanlış olan FAKE'yi deneyin

Dosya yükleme olanağını kontrol edin (PUT fiili, WebDav)

Eğer WebDav'in etkin olduğunu fark ederseniz ancak kök klasöre dosya yükleme izniniz yoksa şunları deneyin:

  • Kimlik bilgilerini Brute Force ile deneyin
  • WebDav aracılığıyla dosya yükleme deneyin ve web sayfasının içinde bulunan diğer klasörlere dosya yükleme izniniz olabilir.

SSL/TLS zafiyetleri

  • Uygulama herhangi bir yerde HTTPS kullanımını zorlamıyorsa, o zaman MitM'ye karşı savunmasızdır
  • Uygulama HTTP kullanarak hassas verileri (şifreler) gönderiyorsa. Bu yüksek bir zafiyettir.

testssl.sh kullanarak zafiyetleri kontrol edin (Hata Ödülü programlarında muhtemelen bu tür zafiyetler kabul edilmeyecektir) ve zafiyetleri tekrar kontrol etmek için a2sv 'yi kullanın:

./testssl.sh [--htmlfile] 10.10.10.10:443
#Use the --htmlfile to save the output inside an htmlfile also

# You can also use other tools, by testssl.sh at this momment is the best one (I think)
sslscan <host:port>
sslyze --regular <ip:port>

SSL/TLS Zafiyetleri Hakkında Bilgi:

Ağ Taraması

Web içinde bir tür örümcek başlatın. Örümceğin amacı, test edilen uygulamadan mümkün olan en fazla yol u bulmaktır. Bu nedenle, mümkün olduğunca çok geçerli yol bulmak için web taraması ve harici kaynaklar kullanılmalıdır.

  • gospider (go): HTML örümcek, JS dosyalarında LinkFinder ve harici kaynaklar (Archive.org, CommonCrawl.org, VirusTotal.com, AlienVault.com).
  • hakrawler (go): HTML örümcek, JS dosyalarında LinkFinder ve harici kaynak olarak Archive.org.
  • dirhunt (python): HTML örümcek, ayrıca "önemli dosyaları" belirtir.
  • evine (go): Etkileşimli CLI HTML örümcek. Ayrıca Archive.org'da arama yapar.
  • meg (go): Bu araç bir örümcek değildir ancak yararlı olabilir. Sadece her bir ana bilgisayar için bir dosya ve her bir ana bilgisayar üzerinde her yolu alacak ve yanıtı kaydedecektir.
  • urlgrab (go): JS derleme yeteneklerine sahip HTML örümcek. Ancak, bakımsız gibi görünüyor, derlenmiş sürüm eski ve mevcut kod derlenmiyor.
  • gau (go): Harici sağlayıcıları kullanan HTML örümcek (wayback, otx, commoncrawl).
  • ParamSpider: Bu betik parametre içeren URL'leri bulacak ve listeleyecektir.
  • galer (go): JS derleme yeteneklerine sahip HTML örümcek.
  • LinkFinder (python): JS dosyalarında yeni yollar arayabilen JS güzelleştirme yeteneklerine sahip HTML örümcek. Ayrıca JSScanner'a da bakmak faydalı olabilir, bu, LinkFinder'ın bir sarmalayıcısıdır.
  • goLinkFinder (go): Hem HTML kaynağında hem de gömülü javascript dosyalarında uç noktaları çıkarmak için. Hata avcıları, kırmızı takımlar, bilgi güvenliği uzmanları için kullanışlıdır.
  • JSParser (python2.7): AJAX isteklerini kolayca keşfetmek için Tornado ve JSBeautifier kullanan bir python 2.7 betiği. Bakımsız gibi görünüyor.
  • relative-url-extractor (ruby): Bir dosya (HTML) verildiğinde, çirkin (minify) dosyalardan göreceli URL'leri bulmak ve çıkarmak için nifty düzenli ifade kullanacak.
  • JSFScan (bash, çeşitli araçlar): Çeşitli araçlar kullanarak JS dosyalarından ilginç bilgiler toplar.
  • subjs (go): JS dosyalarını bulur.
  • page-fetch (go): Bir sayfayı başsız bir tarayıcıda yükler ve sayfayı yüklemek için yüklenen tüm URL'leri yazdırır.
  • Feroxbuster (rust): Önceki araçların birkaç seçeneğini karıştıran içerik keşif aracı
  • Javascript Parsing: JS dosyalarında yol ve parametreleri bulmak için bir Burp uzantısı.
  • Sourcemapper: .js.map URL'si verildiğinde güzel JS kodunu alacak bir araç
  • xnLinkFinder: Belirli bir hedef için uç noktaları keşfetmek için kullanılan bir araçtır.
  • waymore: Wayback machine'den bağlantıları keşfet (ayrıca wayback'ten yanıtları indirir ve daha fazla bağlantı arar
  • HTTPLoot (go): Belirli regexler kullanarak (formları doldurarak bile) tarama yapar ve hassas bilgileri bulur.
  • SpiderSuite: Siber güvenlik uzmanları için tasarlanmış gelişmiş çok özellikli GUI web güvenliği Tarama/Örümcek aracı.
  • jsluice (go): JavaScript kaynak kodundan URL'leri, yolları, sırları ve diğer ilginç verileri çıkarmak için bir Go paketi ve komut satırı aracı.
  • ParaForge: Parametreleri ve uç noktaları çıkarmak için bir Burp Suite uzantısı.
  • katana (go): Bu için harika bir araç.

Dizinler ve Dosyaları Kaba Kuvvet ile Deneme

Kök klasörden kaba kuvvet uygulamaya başlayın ve bu yöntemle bulunan tüm dizinleri ve Örümcek tarafından keşfedilen tüm dizinleri kaba kuvvet uygulayarak (bu kaba kuvveti tekrarlayarak ve bulunan dizinlerin adlarını kullanılan kelime listesinin başına ekleyerek) emin olun.
Araçlar:

  • Dirb / Dirbuster - Kali'de bulunur, eski (ve yavaş) ancak işlevsel. Otomatik imzalı sertifikalara ve tekrarlayan aramaya izin verir. Diğer seçeneklerle karşılaştırıldığında çok yavaş.
  • Dirsearch (python): Otomatik imzalı sertifikalara izin vermez ancak tekrarlayan aramaya izin verir.
  • Gobuster (go): Otomatik imzalı sertifikalara izin verir, tekrarlayan arama özelliği yoktur.
  • Feroxbuster - Hızlı, tekrarlayan aramayı destekler.
  • wfuzz wfuzz -w /usr/share/seclists/Discovery/Web-Content/raft-medium-directories.txt https://domain.com/api/FUZZ
  • ffuf - Hızlı: ffuf -c -w /usr/share/wordlists/dirb/big.txt -u http://10.10.10.10/FUZZ
  • uro (python): Bu bir örümcek değil, bulunan URL'lerin listesini "tekrarlanan" URL'leri silmek için kullanılan bir araçtır.
  • Scavenger: Farklı sayfaların burp geçmişinden dizin listesi oluşturmak için bir Burp Uzantısı
  • TrashCompactor: Js içe aktarmalarına dayalı olarak tekrarlanan işlevselliklere sahip URL'leri kaldırır.
  • Chamaleon: Kullanılan teknolojileri tespit etmek ve kullanılacak kelime listelerini seçmek için wapalyzer'ı kullanan bir araç.

Tavsiye edilen sözlükler:

Brute-Forcing veya Spidering sırasında herhangi bir yeni dizin keşfedildiğinde, Brute-Force edilmelidir.

Her bulunan dosyada ne kontrol edilmelidir

  • Bozuk bağlantı kontrolcüsü: Ele geçirilebilecek HTML içindeki bozuk bağlantıları bulun
  • Dosya Yedekleri: Tüm dosyaları bulduktan sonra, tüm yürütülebilir dosyaların yedeklerini arayın (".php", ".aspx"...). Bir yedek dosyanın adlandırılması için yaygın varyasyonlar: file.ext~, #file.ext#, ~file.ext, file.ext.bak, file.ext.tmp, file.ext.old, file.bak, file.tmp ve file.old. Ayrıca bfac veya backup-gen. aracını da kullanabilirsiniz.
  • Yeni parametreler keşfetme: Gizli parametreleri keşfetmek için Arjun, parameth, x8 ve Param Miner **gibi araçları kullanabilirsiniz. Mümkünse, her yürütülebilir web dosyasında gizli parametreleri aramayı deneyebilirsiniz.
  • Arjun tüm varsayılan kelime listeleri: https://github.com/s0md3v/Arjun/tree/master/arjun/db
  • Param-miner “params” : https://github.com/PortSwigger/param-miner/blob/master/resources/params
  • Assetnote “parameters_top_1m”: https://wordlists.assetnote.io/
  • nullenc0de “params.txt”: https://gist.github.com/nullenc0de/9cb36260207924f8e1787279a05eb773
  • Yorumlar: Tüm dosyaların yorumlarını kontrol edin, kimlik bilgileri veya gizli işlevsellik bulabilirsiniz.
  • CTF oynuyorsanız, bir "ortak" hile, bilgileri sayfanın sağında (tarayıcıda kaynak kodunu açtığınızda veriyi görmemeniz için yüzlerce boşluk kullanarak) yorumlarda gizlemektir. Diğer bir olasılık da birkaç yeni satır kullanarak ve web sayfasının altında bir yorumda bilgi gizlemektir.
  • API anahtarları: Herhangi bir API anahtarı bulursanız, farklı platformların API anahtarlarını nasıl kullanılacağını gösteren bir rehber vardır: keyhacks, zile, truffleHog, SecretFinder, RegHex, DumpsterDive, EarlyBird
  • Google API anahtarları: AIzaSyA-qLheq6xjDiEIRisP_ujUseYLQCHUjik gibi bir API anahtarı bulursanız, anahtarın hangi API'lere erişebileceğini kontrol etmek için gmapapiscanner projesini kullanabilirsiniz.
  • S3 Buckets: Spidering yaparken, herhangi bir alt alan adının veya herhangi bir bağlantının bir S3 bucket ile ilişkili olup olmadığını kontrol edin. Bu durumda, bucket'ın izinlerini kontrol edin.

Özel bulgular

Spidering ve Brute-Forcing yaparken dikkat etmeniz gereken ilginç şeyler bulabilirsiniz.

İlginç dosyalar

403 Forbidden/Basic Authentication/401 Unauthorized (atlatma)

{% content-ref url="403-and-401-bypasses.md" %} 403-and-401-bypasses.md {% endcontent-ref %}

502 Proxy Hatası

Eğer bir sayfa bu kodla yanıt verirse, muhtemelen kötü yapılandırılmış bir proxydir. Eğer şu gibi bir HTTP isteği gönderirseniz: GET https://google.com HTTP/1.1 (host başlığı ve diğer yaygın başlıklarla), proxy google.com'a erişmeye çalışacak ve bir SSRF bulmuş olacaksınız.

NTLM Kimlik Doğrulama - Bilgi sızdırma

Kimlik doğrulaması isteyen çalışan sunucu Windows ise veya kimlik bilgilerinizi isteyen bir giriş bulursanız (ve alan adı adınızı soruyorsa), bir bilgi sızdırma provoke edebilirsiniz.
“Authorization: NTLM TlRMTVNTUAABAAAAB4IIAAAAAAAAAAAAAAAAAAAAAAA=” başlığını gönderin ve NTLM kimlik doğrulamasının nasıl çalıştığı nedeniyle, sunucu iç bilgilerle (IIS sürümü, Windows sürümü...) "WWW-Authenticate" başlığı içinde yanıt verecektir.
Bunu nmap eklentisi "http-ntlm-info.nse" kullanarak otomatikleştirebilirsiniz.

HTTP Yönlendirmesi (CTF)

Bir Yönlendirme içine içerik yerleştirmek mümkündür. Bu içerik kullanıcıya gösterilmeyecek (tarayıcı yönlendirmeyi gerçekleştireceği için), ancak içinde bir şey gizlenebilir.

Web Güvenlik Açıklarının Kontrol Edilmesi

Web uygulamasının kapsamlı bir şekilde numaralandırılmasının ardından birçok olası güvenlik açığı kontrol edilmelidir. Kontrol listesini burada bulabilirsiniz:

{% content-ref url="../../pentesting-web/web-vulnerabilities-methodology.md" %} web-vulnerabilities-methodology.md {% endcontent-ref %}

Web açıkları hakkında daha fazla bilgi edinin:

Sayfaları Değişiklikler İçin İzleme

https://github.com/dgtlmoon/changedetection.io gibi araçları kullanarak sayfaları izleyebilir ve güvenlik açıkları ekleyebilecek değişiklikleri kontrol edebilirsiniz.

Eğer hacking kariyerine ilgi duyuyorsanız ve hacklenemez olanı hacklemek istiyorsanız - işe alıyoruz! (akıcı şekilde Lehçe yazılı ve konuşma gereklidir).

{% embed url="https://www.stmcyber.com/careers" %}

HackTricks Otomatik Komutları

Protocol_Name: Web    #Protocol Abbreviation if there is one.
Port_Number:  80,443     #Comma separated if there is more than one.
Protocol_Description: Web         #Protocol Abbreviation Spelled out

Entry_1:
Name: Notes
Description: Notes for Web
Note: |
https://book.hacktricks.xyz/pentesting/pentesting-web

Entry_2:
Name: Quick Web Scan
Description: Nikto and GoBuster
Command: nikto -host {Web_Proto}://{IP}:{Web_Port} &&&& gobuster dir -w {Small_Dirlist} -u {Web_Proto}://{IP}:{Web_Port} && gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_3:
Name: Nikto
Description: Basic Site Info via Nikto
Command: nikto -host {Web_Proto}://{IP}:{Web_Port}

Entry_4:
Name: WhatWeb
Description: General purpose auto scanner
Command: whatweb -a 4 {IP}

Entry_5:
Name: Directory Brute Force Non-Recursive
Description:  Non-Recursive Directory Brute Force
Command: gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_6:
Name: Directory Brute Force Recursive
Description: Recursive Directory Brute Force
Command: python3 {Tool_Dir}dirsearch/dirsearch.py -w {Small_Dirlist} -e php,exe,sh,py,html,pl -f -t 20 -u {Web_Proto}://{IP}:{Web_Port} -r 10

Entry_7:
Name: Directory Brute Force CGI
Description: Common Gateway Interface Brute Force
Command: gobuster dir -u {Web_Proto}://{IP}:{Web_Port}/ -w /usr/share/seclists/Discovery/Web-Content/CGIs.txt -s 200

Entry_8:
Name: Nmap Web Vuln Scan
Description: Tailored Nmap Scan for web Vulnerabilities
Command: nmap -vv --reason -Pn -sV -p {Web_Port} --script=`banner,(http* or ssl*) and not (brute or broadcast or dos or external or http-slowloris* or fuzzer)` {IP}

Entry_9:
Name: Drupal
Description: Drupal Enumeration Notes
Note: |
git clone https://github.com/immunIT/drupwn.git for low hanging fruit and git clone https://github.com/droope/droopescan.git for deeper enumeration

Entry_10:
Name: WordPress
Description: WordPress Enumeration with WPScan
Command: |
?What is the location of the wp-login.php? Example: /Yeet/cannon/wp-login.php
wpscan --url {Web_Proto}://{IP}{1} --enumerate ap,at,cb,dbe && wpscan --url {Web_Proto}://{IP}{1} --enumerate u,tt,t,vp --passwords {Big_Passwordlist} -e

Entry_11:
Name: WordPress Hydra Brute Force
Description: Need User (admin is default)
Command: hydra -l admin -P {Big_Passwordlist} {IP} -V http-form-post '/wp-login.php:log=^USER^&pwd=^PASS^&wp-submit=Log In&testcookie=1:S=Location'

Entry_12:
Name: Ffuf Vhost
Description: Simple Scan with Ffuf for discovering additional vhosts
Command: ffuf -w {Subdomain_List}:FUZZ -u {Web_Proto}://{Domain_Name} -H "Host:FUZZ.{Domain_Name}" -c -mc all {Ffuf_Filters}
AWS hacklemeyi sıfırdan kahramana öğrenin htARTE (HackTricks AWS Red Team Expert) ile!

HackTricks'ı desteklemenin diğer yolları: