hacktricks/network-services-pentesting/pentesting-web/README.md

32 KiB
Raw Blame History

80,443 - Web Pentesting Metodolojisi

AWS hacklemeyi sıfırdan kahramana öğrenin htARTE (HackTricks AWS Kırmızı Takım Uzmanı)!

HackTricks'i desteklemenin diğer yolları:

Eğer hacking kariyerine ilgi duyuyorsanız ve hacklenemez olanı hacklemek istiyorsanız - işe alıyoruz! (akıcı Lehçe yazılı ve konuşma gereklidir).

{% embed url="https://www.stmcyber.com/careers" %}

Temel Bilgiler

Web servisi en sık karşılaşılan ve kapsamlı hizmettir ve birçok farklı türde zayıflık bulunmaktadır.

Varsayılan port: 80 (HTTP), 443(HTTPS)

PORT    STATE SERVICE
80/tcp  open  http
443/tcp open  ssl/https
nc -v domain.com 80 # GET / HTTP/1.0
openssl s_client -connect domain.com:443 # GET / HTTP/1.0

Web API Rehberi

{% content-ref url="web-api-pentesting.md" %} web-api-pentesting.md {% endcontent-ref %}

Metodoloji özeti

Bu metodolojide, bir alan adına (veya alt alan adına) saldırı gerçekleştireceğinizi varsayacağız. Bu nedenle, bu metodolojiyi belirlenen her alan, alt alan veya kapsamı içinde belirlenemeyen bir web sunucusuna uygulamanız gerekmektedir.

  • İlk olarak, web sunucusu tarafından kullanılan teknolojileri belirleyin. Eğer teknolojiyi başarılı bir şekilde belirleyebilirseniz, testin geri kalanı sırasında akılda tutulacak püf noktaları arayın.
  • Kullanılan teknolojinin versiyonuna ait bilinen bir zayıflık var mı?
  • Tanınmış bir teknoloji kullanılıyor mu? Daha fazla bilgi çıkarmak için yararlı bir püf noktası var mı?
  • Çalıştırılacak özel tarama aracı var mı (örneğin wpscan)?
  • Genel amaçlı tarama araçlarını başlatın. Bir şey bulacaklarını veya ilginç bilgiler bulacaklarını asla bilemezsiniz.
  • İlk kontrollerle başlayın: robots, sitemap, 404 hata ve SSL/TLS taraması (HTTPS ise).
  • Web sayfasını spidering işlemine başlayın: Tüm olası dosyaları, klasörleri ve kullanılan parametreleri bulma zamanı. Ayrıca, özel bulguları kontrol edin.
  • Herhangi bir brute-force veya spidering sırasında yeni bir dizin keşfedildiğinde, bu dizin spider edilmelidir.
  • Dizin Brute-Forcing: Keşfedilen tüm klasörleri tarayarak yeni dosyaları ve dizinleri brute force etmeye çalışın.
  • Herhangi bir brute-force veya spidering sırasında yeni bir dizin keşfedildiğinde, bu dizin brute force edilmelidir.
  • Yedeklerin kontrol edilmesi: Keşfedilen dosyaların yedeklerini bulabilir misiniz, yaygın yedek uzantılarını ekleyerek test edin.
  • Parametreleri Brute-Force etme: Gizli parametreleri bulmaya çalışın.
  • Tüm olası kullanıcı girişi kabul eden uç noktaları belirledikten sonra, bunlarla ilgili tüm zayıflıkları kontrol edin.
  • Bu kontrol listesini takip edin

Sunucu Versiyonu (Zayıf mı?)

Belirleme

Çalışan sunucu versiyonu için bilinen zayıflıkların olup olmadığını kontrol edin.
Yanıtın HTTP başlıkları ve çerezleri, kullanılan teknolojileri ve/veya versiyonu belirlemek için oldukça yararlı olabilir. Nmap taraması sunucu versiyonunu belirleyebilir, ancak whatweb, webtech veya https://builtwith.com/: gibi araçlar da faydalı olabilir.

whatweb -a 1 <URL> #Stealthy
whatweb -a 3 <URL> #Aggresive
webtech -u <URL>
webanalyze -host https://google.com -crawl 2

Web uygulamasının güvenlik açıklarını arayın sürüm versiyonu arayın

Herhangi bir WAF olup olmadığını kontrol edin

Web teknik hileler

Farklı tanınmış teknolojilerdeki güvenlik açıklarını bulmak için bazı hileler:

Aynı alan farklı teknolojileri farklı portlarda, klasörlerde ve alt alanlarda kullanabilir.
Eğer web uygulaması herhangi bir önceki teknoloji/platform veya başka birini kullanıyorsa, İnternet'te yeni hileler aramayı unutmayın (ve bana bildirin!).

Kaynak Kod İncelemesi

Uygulamanın kaynak kodu github'da mevcutsa, uygulamanın kendi beyaz kutu testini yapmanın yanı sıra, mevcut Siyah Kutu testi için yararlı olabilecek bazı bilgiler bulunmaktadır:

  • Web üzerinden erişilebilen Değişiklik günlüğü veya Readme veya Sürüm dosyası veya herhangi bir sürüm bilgisi var mı?
  • Kimlik bilgileri nerede ve nasıl saklanıyor? Kimlik bilgilerini içeren (erişilebilir mi?) dosya var mı (kullanıcı adları veya şifreler)?
  • Şifreler düz metin mi, şifrelenmiş mi veya hangi hashleme algoritması kullanılıyor?
  • Bir şeyi şifrelemek için herhangi bir anahtar kullanıyor mu? Hangi algoritma kullanılıyor?
  • Bazı bir zafiyeti istismar ederek bu dosyalardan herhangi birine erişebilir misiniz?
  • Github'da (çözülmüş ve çözülmemiş) sorunlarda veya taahhüt geçmişinde (belki eski bir taahhüt içinde bir şifre bulunabilir mi?) ilginç bilgiler var mı?

{% content-ref url="code-review-tools.md" %} code-review-tools.md {% endcontent-ref %}

Otomatik tarayıcılar

Genel amaçlı otomatik tarayıcılar

nikto -h <URL>
whatweb -a 4 <URL>
wapiti -u <URL>
W3af
zaproxy #You can use an API
nuclei -ut && nuclei -target <URL>

# https://github.com/ignis-sec/puff (client side vulns fuzzer)
node puff.js -w ./wordlist-examples/xss.txt -u "http://www.xssgame.com/f/m4KKGHi2rVUN/?query=FUZZ"

CMS tarayıcıları

Eğer bir CMS kullanılıyorsa, bir tarayıcı çalıştırmayı unutmayın, belki ilginç şeyler bulunabilir:

Clusterd: JBoss, ColdFusion, WebLogic, Tomcat, Railo, Axis2, Glassfish
CMSScan: WordPress, Drupal, Joomla, vBulletin web siteleri için güvenlik sorunlarını taramak için. (GUI)
VulnX: Joomla, Wordpress, Drupal, PrestaShop, Opencart
CMSMap: (W)ordpress, (J)oomla, (D)rupal veya (M)oodle
droopscan: Drupal, Joomla, Moodle, Silverstripe, Wordpress

cmsmap [-f W] -F -d <URL>
wpscan --force update -e --url <URL>
joomscan --ec -u <URL>
joomlavs.rb #https://github.com/rastating/joomlavs

Bu noktada, istemci tarafından kullanılan web sunucusu hakkında bazı bilgilere zaten sahip olmalısınız (veri verilmişse) ve test sırasında akılda tutulması gereken bazı püf noktaları olmalıdır. Şanslıysanız bir CMS bulmuş olabilir ve bazı taramalar yapmış olabilirsiniz.

Adım adım Web Uygulama Keşfi

Bu noktadan itibaren web uygulamasıyla etkileşime geçmeye başlayacağız.

İlk kontroller

İlginç bilgiler içeren varsayılan sayfalar:

  • /robots.txt
  • /sitemap.xml
  • /crossdomain.xml
  • /clientaccesspolicy.xml
  • /.well-known/
  • Ana ve ikincil sayfalardaki yorumları da kontrol edin.

Hataları Zorlama

Web sunucuları, üzerlerine garip veriler gönderildiğinde beklenmedik şekilde davranabilir. Bu, zafiyetleri veya duyarlı bilgilerin ifşa edilmesini açabilir.

  • /whatever_fake.php (.aspx,.html,.vb gibi) gibi sahte sayfalara erişin
  • Hatalar oluşturmak için "[]", "]]" ve "[[" gibi değerleri çerez ve parametre değerlerine ekleyin
  • URL'nin sonuna /~randomthing/%s olarak giriş yaparak hata oluşturun
  • PATCH, DEBUG gibi farklı HTTP Fiillerini veya yanlış olan FAKE'yi deneyin

Dosya yükleme olanağını kontrol edin (PUT fiili, WebDav)

Eğer WebDav'in etkin olduğunu ancak kök klasöre dosya yüklemek için yeterli izninizin olmadığını bulursanız şunları deneyin:

  • Kimlik bilgilerini Brute Force ile deneyin
  • WebDav aracılığıyla dosya yükleyin ve web sayfasının içinde bulunan diğer klasörlere dosya yükleme izniniz olabilir.

SSL/TLS zafiyetleri

  • Uygulama herhangi bir yerde HTTPS kullanımını zorlamıyorsa, o zaman MitM'ye karşı savunmasızdır
  • Uygulama, HTTP kullanarak hassas verileri (şifreler) gönderiyorsa. Bu yüksek bir zafiyettir.

testssl.sh kullanarak zafiyetleri kontrol edin (Hata Ödülü programlarında muhtemelen bu tür zafiyetler kabul edilmeyecektir) ve zafiyetleri tekrar kontrol etmek için a2sv kullanın:

./testssl.sh [--htmlfile] 10.10.10.10:443
#Use the --htmlfile to save the output inside an htmlfile also

# You can also use other tools, by testssl.sh at this momment is the best one (I think)
sslscan <host:port>
sslyze --regular <ip:port>

SSL/TLS Zafiyetleri Hakkında Bilgi:

Ağ Taraması

Web içinde bir tür örümcek başlatın. Örümceğin amacı, test edilen uygulamadan mümkün olan en fazla yol u bulmaktır. Bu nedenle, mümkün olduğunca çok geçerli yol bulmak için web taraması ve harici kaynaklar kullanılmalıdır.

  • gospider (go): HTML örümcek, JS dosyalarında LinkFinder ve harici kaynaklar (Archive.org, CommonCrawl.org, VirusTotal.com, AlienVault.com).
  • hakrawler (go): HTML örümcek, JS dosyalarında LinkFinder ve harici kaynak olarak Archive.org.
  • dirhunt (python): HTML örümcek, ayrıca "önemli dosyaları" belirtir.
  • evine (go): Etkileşimli CLI HTML örümcek. Ayrıca Archive.org'da arama yapar.
  • meg (go): Bu araç bir örümcek değildir ancak yararlı olabilir. Sadece her bir ana bilgisayar için bir dosya ve her bir ana bilgisayar üzerindeki her yolu alacak ve yanıtı kaydedecektir.
  • urlgrab (go): JS işleme yetenekleri olan HTML örümcek. Ancak, bakımsız gibi görünüyor, derlenmiş sürüm eski ve mevcut kod derlenmiyor.
  • gau (go): Harici sağlayıcıları kullanan HTML örümcek (wayback, otx, commoncrawl).
  • ParamSpider: Bu betik parametre içeren URL'leri bulacak ve listeleyecektir.
  • galer (go): JS işleme yetenekleri olan HTML örümcek.
  • LinkFinder (python): JS dosyalarında yeni yollar arayabilen JS güzelleştirme yeteneklerine sahip HTML örümcek. Ayrıca JSScanner 'a da bakmak faydalı olabilir, bu, LinkFinder'ın bir sarmalayıcısıdır.
  • goLinkFinder (go): Hem HTML kaynağında hem de gömülü javascript dosyalarında uç noktaları çıkarmak için. Hata avcıları, kırmızı takımlar, bilgi güvenliği uzmanları için faydalıdır.
  • JSParser (python2.7): AJAX isteklerini kolayca keşfetmek için Tornado ve JSBeautifier kullanan bir python 2.7 betiği. Bakımsız gibi görünüyor.
  • relative-url-extractor (ruby): Bir dosya (HTML) verildiğinde, çirkin (minify) dosyalardan göreceli URL'leri bulmak ve çıkarmak için nifty düzenli ifadeleri kullanır.
  • JSFScan (bash, çeşitli araçlar): Çeşitli araçlar kullanarak JS dosyalarından ilginç bilgiler toplar.
  • subjs (go): JS dosyalarını bulur.
  • page-fetch (go): Bir sayfayı başsız bir tarayıcıda yükler ve sayfayı yüklemek için yüklenen tüm URL'leri yazdırır.
  • Feroxbuster (rust): Önceki araçların birkaç seçeneğini karıştıran içerik keşif aracı
  • Javascript Parsing: JS dosyalarında yol ve parametreleri bulmak için bir Burp uzantısı.
  • Sourcemapper: .js.map URL'si verildiğinde güzel JS kodunu alacak bir araç
  • xnLinkFinder: Belirli bir hedef için uç noktaları keşfetmek için kullanılan bir araçtır.
  • waymore: Wayback makinesinden bağlantıları keşfedin (ayrıca wayback'ten yanıtları indirin ve daha fazla bağlantı arayın
  • HTTPLoot (go): (Formları doldurarak bile) tarama yapın ve özel regex'leri kullanarak hassas bilgileri bulun.
  • SpiderSuite: Spider Suite, siber güvenlik uzmanları için tasarlanmış gelişmiş çok özellikli GUI web güvenliği Tarama/Örümcek aracıdır.
  • jsluice (go): JavaScript kaynak kodundan URL'leri, yolları, sırları ve diğer ilginç verileri çıkarmak için bir Go paketi ve komut satırı aracı.
  • ParaForge: Parametreleri ve uç noktaları çıkarmak için isteğin burp geçmişinden özel kelime listesi oluşturmak için basit bir Burp Suite uzantısı.

Dizinler ve Dosyaları Kaba Kuvvet ile Deneme

Kök klasörden kaba kuvvet uygulamaya başlayın ve bu yöntemle bulunan tüm dizinleri ve Örümcek tarafından keşfedilen tüm dizinleri kaba kuvvet uygulayarak (bu kaba kuvveti tekrarlayarak ve bulunan dizinlerin adlarını kullanılan kelime listesinin başına ekleyerek) emin olun.
Araçlar:

  • Dirb / Dirbuster - Kali'de bulunur, eski (ve yavaş) ancak işlevsel. Otomatik imzalı sertifikalara ve tekrarlayan aramaya izin verir. Diğer seçeneklerle karşılaştırıldığında çok yavaş.
  • Dirsearch (python): Otomatik imzalı sertifikalara izin vermez ancak tekrarlayan aramaya izin verir.
  • Gobuster (go): Otomatik imzalı sertifikalara izin verir, tekrarlayan arama yapmaz.
  • Feroxbuster - Hızlı, tekrarlayan aramayı destekler.
  • wfuzz wfuzz -w /usr/share/seclists/Discovery/Web-Content/raft-medium-directories.txt https://domain.com/api/FUZZ
  • ffuf - Hızlı: ffuf -c -w /usr/share/wordlists/dirb/big.txt -u http://10.10.10.10/FUZZ
  • uro (python): Bu bir örümcek değil, bulunan URL'lerin listesini "tekrarlanan" URL'leri silmek için kullanır.
  • Scavenger: Farklı sayfaların burp geçmişinden dizin listesi oluşturmak için bir Burp Uzantısı
  • TrashCompactor: Js içe aktarmalara dayalı olarak tekrarlanan işlevselliklere sahip URL'leri kaldırır.
  • Chamaleon: Kullanılan teknolojileri tespit etmek ve kullanılacak kelime listelerini seçmek için wapalyzer'ı kullanır.

Tavsiye edilen sözlükler:

Bruteforcing veya spidering sırasında herhangi bir yeni dizin keşfedildiğinde, Brute-Force edilmelidir.

Her bulunan dosyada ne kontrol edilmelidir

  • Bozuk bağlantı kontrolcüsü: Ele geçirilebilecek HTML içindeki bozuk bağlantıları bulun
  • Dosya Yedekleri: Tüm dosyaları bulduktan sonra, tüm yürütülebilir dosyaların yedeklerini arayın (".php", ".aspx"...). Bir yedek dosyanın adlandırılması için yaygın varyasyonlar: file.ext~, #file.ext#, ~file.ext, file.ext.bak, file.ext.tmp, file.ext.old, file.bak, file.tmp ve file.old. Ayrıca bfac veya backup-gen'i kullanabilirsiniz.
  • Yeni parametreler keşfet: Gizli parametreleri keşfetmek için Arjun, parameth, x8 ve Param Miner **gibi araçları kullanabilirsiniz. Mümkünse, her yürütülebilir web dosyasında gizli parametreleri aramayı deneyebilirsiniz.
  • Arjun tüm varsayılan kelime listeleri: https://github.com/s0md3v/Arjun/tree/master/arjun/db
  • Param-miner “params” : https://github.com/PortSwigger/param-miner/blob/master/resources/params
  • Assetnote “parameters_top_1m”: https://wordlists.assetnote.io/
  • nullenc0de “params.txt”: https://gist.github.com/nullenc0de/9cb36260207924f8e1787279a05eb773
  • Yorumlar: Tüm dosyaların yorumlarını kontrol edin, kimlik bilgileri veya gizli işlevsellik bulabilirsiniz.
  • CTF oynuyorsanız, bir "ortak" hile, bilgileri sayfanın sağında (verileri tarayıcıyla açarsanız verileri görmemeniz için yüzlerce boşluk kullanarak) yorumlarda gizlemektir. Diğer bir olasılık da birkaç yeni satır kullanarak ve web sayfasının altında bir yorumda bilgi gizlemektir.
  • API anahtarları: Herhangi bir API anahtarı bulursanız, farklı platformların API anahtarlarını nasıl kullanılacağını gösteren bir rehber vardır: keyhacks, zile, truffleHog, SecretFinder, RegHex, DumpsterDive, EarlyBird
  • Google API anahtarları: AIzaSyA-qLheq6xjDiEIRisP_ujUseYLQCHUjik gibi bir API anahtarı bulursanız, anahtarın hangi API'lere erişebileceğini kontrol etmek için gmapapiscanner projesini kullanabilirsiniz.
  • S3 Buckets: Spidering yaparken, herhangi bir alt alan adının veya bağlantının bir S3 bucket ile ilişkili olup olmadığını kontrol edin. Bu durumda, bucket'ın izinlerini kontrol edin.

Özel bulgular

Spidering ve brute-forcing yaparken dikkat etmeniz gereken ilginç şeyler bulabilirsiniz.

İlginç dosyalar

403 Forbidden/Basic Authentication/401 Unauthorized (atlatma)

{% content-ref url="403-and-401-bypasses.md" %} 403-and-401-bypasses.md {% endcontent-ref %}

502 Proxy Hatası

Eğer herhangi bir sayfa bu kodla yanıt verirse, muhtemelen kötü yapılandırılmış bir proxydir. Eğer GET https://google.com HTTP/1.1 gibi bir HTTP isteği gönderirseniz (host başlığı ve diğer yaygın başlıklarla), proxy google.com'a erişmeye çalışacak ve bir SSRF bulmuş olacaksınız.

NTLM Kimlik Doğrulama - Bilgi sızdırma

Eğer kimlik doğrulama isteyen çalışan sunucu Windows ise veya kimlik bilgilerinizi isteyen bir giriş bulursanız (ve alan adı adınızı soruyorsa), bir bilgi sızdırma provoke edebilirsiniz.
“Authorization: NTLM TlRMTVNTUAABAAAAB4IIAAAAAAAAAAAAAAAAAAAAAAA=” başlığını gönderin ve NTLM kimlik doğrulamanın nasıl çalıştığından dolayı sunucu, "WWW-Authenticate" başlığı içinde iç bilgilerle (IIS sürümü, Windows sürümü...) yanıt verecektir.
Bunu nmap eklentisi "http-ntlm-info.nse" kullanarak otomatikleştirebilirsiniz.

HTTP Yönlendirmesi (CTF)

Bir Yönlendirme içine içerik yerleştirmek mümkündür. Bu içerik kullanıcıya gösterilmeyecek (tarayıcı yönlendirmeyi gerçekleştireceği için), ancak içinde bir şey gizlenebilir.

Web Güvenlik Açıklıklarını Kontrol Etme

Web uygulamasının kapsamlı bir şekilde numaralandırılmasının ardından birçok olası güvenlik açığı kontrol edilmelidir. Kontrol listesini burada bulabilirsiniz:

{% content-ref url="../../pentesting-web/web-vulnerabilities-methodology/" %} web-vulnerabilities-methodology {% endcontent-ref %}

Web açıklıkları hakkında daha fazla bilgi edinin:

Sayfaları Değişiklikler İçin İzleme

Vulnerabilities ekleyebilecek değişiklikleri izlemek için https://github.com/dgtlmoon/changedetection.io gibi araçları kullanabilirsiniz.

Eğer hacking kariyeri sizi ilgilendiriyorsa ve hacklenemez olanı hacklemek istiyorsanız - işe alıyoruz! (akıcı şekilde Lehçe yazılı ve konuşma gereklidir).

{% embed url="https://www.stmcyber.com/careers" %}

HackTricks Otomatik Komutları

Protocol_Name: Web    #Protocol Abbreviation if there is one.
Port_Number:  80,443     #Comma separated if there is more than one.
Protocol_Description: Web         #Protocol Abbreviation Spelled out

Entry_1:
Name: Notes
Description: Notes for Web
Note: |
https://book.hacktricks.xyz/pentesting/pentesting-web

Entry_2:
Name: Quick Web Scan
Description: Nikto and GoBuster
Command: nikto -host {Web_Proto}://{IP}:{Web_Port} &&&& gobuster dir -w {Small_Dirlist} -u {Web_Proto}://{IP}:{Web_Port} && gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_3:
Name: Nikto
Description: Basic Site Info via Nikto
Command: nikto -host {Web_Proto}://{IP}:{Web_Port}

Entry_4:
Name: WhatWeb
Description: General purpose auto scanner
Command: whatweb -a 4 {IP}

Entry_5:
Name: Directory Brute Force Non-Recursive
Description:  Non-Recursive Directory Brute Force
Command: gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_6:
Name: Directory Brute Force Recursive
Description: Recursive Directory Brute Force
Command: python3 {Tool_Dir}dirsearch/dirsearch.py -w {Small_Dirlist} -e php,exe,sh,py,html,pl -f -t 20 -u {Web_Proto}://{IP}:{Web_Port} -r 10

Entry_7:
Name: Directory Brute Force CGI
Description: Common Gateway Interface Brute Force
Command: gobuster dir -u {Web_Proto}://{IP}:{Web_Port}/ -w /usr/share/seclists/Discovery/Web-Content/CGIs.txt -s 200

Entry_8:
Name: Nmap Web Vuln Scan
Description: Tailored Nmap Scan for web Vulnerabilities
Command: nmap -vv --reason -Pn -sV -p {Web_Port} --script=`banner,(http* or ssl*) and not (brute or broadcast or dos or external or http-slowloris* or fuzzer)` {IP}

Entry_9:
Name: Drupal
Description: Drupal Enumeration Notes
Note: |
git clone https://github.com/immunIT/drupwn.git for low hanging fruit and git clone https://github.com/droope/droopescan.git for deeper enumeration

Entry_10:
Name: WordPress
Description: WordPress Enumeration with WPScan
Command: |
?What is the location of the wp-login.php? Example: /Yeet/cannon/wp-login.php
wpscan --url {Web_Proto}://{IP}{1} --enumerate ap,at,cb,dbe && wpscan --url {Web_Proto}://{IP}{1} --enumerate u,tt,t,vp --passwords {Big_Passwordlist} -e

Entry_11:
Name: WordPress Hydra Brute Force
Description: Need User (admin is default)
Command: hydra -l admin -P {Big_Passwordlist} {IP} -V http-form-post '/wp-login.php:log=^USER^&pwd=^PASS^&wp-submit=Log In&testcookie=1:S=Location'

Entry_12:
Name: Ffuf Vhost
Description: Simple Scan with Ffuf for discovering additional vhosts
Command: ffuf -w {Subdomain_List}:FUZZ -u {Web_Proto}://{Domain_Name} -H "Host:FUZZ.{Domain_Name}" -c -mc all {Ffuf_Filters}
AWS hacklemeyi sıfırdan kahramana öğrenin htARTE (HackTricks AWS Red Team Expert) ile!

HackTricks'ı desteklemenin diğer yolları: