hacktricks/network-services-pentesting/pentesting-web/README.md

32 KiB
Raw Blame History

80,443 - Web Pentesting Metodolojisi

AWS hacklemeyi sıfırdan kahramana öğrenin htARTE (HackTricks AWS Red Team Expert)!

HackTricks'ı desteklemenin diğer yolları:

Eğer hacking kariyerine ilgi duyuyorsanız ve hacklenemez olanı hacklemek istiyorsanız - işe alıyoruz! (akıcı şekilde Lehçe yazılı ve konuşma gereklidir).

{% embed url="https://www.stmcyber.com/careers" %}

Temel Bilgiler

Web servisi en sık ve kapsamlı hizmettir ve birçok farklı türde zayıflık bulunmaktadır.

Varsayılan port: 80 (HTTP), 443(HTTPS)

PORT    STATE SERVICE
80/tcp  open  http
443/tcp open  ssl/https
nc -v domain.com 80 # GET / HTTP/1.0
openssl s_client -connect domain.com:443 # GET / HTTP/1.0

Web API Rehberi

{% content-ref url="web-api-pentesting.md" %} web-api-pentesting.md {% endcontent-ref %}

Metodoloji özeti

Bu metodolojide, bir alan adına (veya alt alan adına) saldırı gerçekleştireceğinizi varsayacağız. Bu nedenle, bu metodolojiyi belirlenen her alan, alt alan veya kapsamı içinde belirlenemeyen web sunucusuna uygulamanız gerekmektedir.

  • İlk olarak, web sunucusu tarafından kullanılan teknolojileri belirleyin. Eğer teknolojiyi başarılı bir şekilde belirleyebilirseniz, testin geri kalanı sırasında akılda tutulacak püf noktaları arayın.
  • Kullanılan teknolojinin bilinen bir zafiyeti var mı?
  • Tanınmış bir teknoloji mi kullanılıyor? Daha fazla bilgi çıkarmak için yararlı bir püf noktası var mı?
  • Çalıştırılacak özel tarama aracı var mı (örneğin wpscan)?
  • Genel amaçlı tarama araçlarını başlatın. Bulabilecekleri bir şey olup olmadığını ya da ilginç bilgiler bulabileceklerini asla bilemezsiniz.
  • İlk kontrollerle başlayın: robots, sitemap, 404 hata ve SSL/TLS taraması (HTTPS ise).
  • Web sayfasını spidering ile tarayın: Tüm olası dosyaları, klasörleri ve kullanılan parametreleri bulma zamanı. Ayrıca, özel bulguları kontrol edin.
  • Herhangi bir brute-force veya spidering sırasında yeni bir dizin keşfedildiğinde, bu dizin spider edilmelidir.
  • Dizin Brute-Forcing: Keşfedilen tüm klasörleri tarayarak yeni dosyaları ve dizinleri brute force deneyin.
  • Herhangi bir brute-force veya spidering sırasında yeni bir dizin keşfedildiğinde, bu dizin brute force edilmelidir.
  • Yedeklerin kontrol edilmesi: Keşfedilen dosyaların yedeklerini bulmaya çalışın ve yaygın yedek uzantılarını ekleyin.
  • Parametreleri Brute-Force etme: Gizli parametreleri bulmaya çalışın.
  • Tüm olası kullanıcı girişi kabul eden uç noktaları belirledikten sonra, bunlarla ilgili tüm türden zafiyetleri kontrol edin.
  • Bu kontrol listesini takip edin

Sunucu Sürümü (Zafiyetli mi?)

Belirleme

Çalışan sunucu sürümü için bilinen zafiyetlerin olup olmadığını kontrol edin.
Yanıtın HTTP başlıkları ve çerezleri, kullanılan teknolojileri ve/veya sürümü belirlemek için oldukça yararlı olabilir. Nmap taraması sunucu sürümünü belirleyebilir, ancak whatweb, webtech veya https://builtwith.com/: gibi araçlar da faydalı olabilir.

whatweb -a 1 <URL> #Stealthy
whatweb -a 3 <URL> #Aggresive
webtech -u <URL>
webanalyze -host https://google.com -crawl 2

Web uygulamasının zafiyetlerini arayın versiyon bilgileri için arama yapın

Herhangi bir WAF olup olmadığını kontrol edin

Web teknik hileler

Farklı popüler teknolojilerdeki zafiyetleri bulmak için bazı hileler:

Aynı alan adının farklı portlarda, klasörlerde ve alt alan adlarında farklı teknolojiler kullanabileceğini unutmayın.
Eğer web uygulaması herhangi bir önce listelenen teknoloji/platform veya başka bir teknoloji kullanıyorsa, İnternet'te yeni hileler aramayı unutmayın (ve bana bildirin!).

Kaynak Kod İncelemesi

Uygulamanın kaynak kodu github'da mevcutsa, uygulamanın kendi başınıza bir Beyaz Kutu testi yapmanın yanı sıra, mevcut Siyah Kutu testi için yararlı olabilecek bazı bilgiler bulunmaktadır:

  • Web üzerinden erişilebilen Değişiklik günlüğü veya Readme veya Versiyon dosyası veya herhangi bir versiyon bilgisi var mı?
  • Kimlik bilgileri nerede ve nasıl saklanıyor? Kimlik bilgilerini içeren (erişilebilir mi?) bir dosya var mı (kullanıcı adları veya şifreler)?
  • Şifreler ık metin mi, şifrelenmiş mi veya hangi hashleme algoritması kullanılıyor?
  • Bir şeyi şifrelemek için herhangi bir anahtar kullanıyor mu? Hangi algoritma kullanılıyor?
  • Bazı bir zafiyeti istismar ederek bu dosyalardan herhangi birine erişebilir misiniz?
  • Github'da (çözülmüş ve çözülmemiş) sorunlarda veya commit geçmişinde (belki eski bir commit içinde bir şifre bulunabilir) ilginç bilgiler var mı?

{% content-ref url="code-review-tools.md" %} code-review-tools.md {% endcontent-ref %}

Otomatik tarayıcılar

Genel amaçlı otomatik tarayıcılar

nikto -h <URL>
whatweb -a 4 <URL>
wapiti -u <URL>
W3af
zaproxy #You can use an API
nuclei -ut && nuclei -target <URL>

# https://github.com/ignis-sec/puff (client side vulns fuzzer)
node puff.js -w ./wordlist-examples/xss.txt -u "http://www.xssgame.com/f/m4KKGHi2rVUN/?query=FUZZ"

CMS tarayıcıları

Eğer bir CMS kullanılıyorsa, bir tarayıcı çalıştırmayı unutmayın, belki ilginç şeyler bulunabilir:

Clusterd: JBoss, ColdFusion, WebLogic, Tomcat, Railo, Axis2, Glassfish
CMSScan: WordPress, Drupal, Joomla, vBulletin web siteleri için güvenlik sorunlarını taramak için (GUI)
VulnX: Joomla, Wordpress, Drupal, PrestaShop, Opencart
CMSMap: (W)ordpress, (J)oomla, (D)rupal veya (M)oodle
droopscan: Drupal, Joomla, Moodle, Silverstripe, Wordpress

cmsmap [-f W] -F -d <URL>
wpscan --force update -e --url <URL>
joomscan --ec -u <URL>
joomlavs.rb #https://github.com/rastating/joomlavs

Bu noktada, müşteri tarafından kullanılan web sunucusu hakkında bazı bilgilere zaten sahip olmalısınız (veri verilmişse) ve test sırasında akılda tutulması gereken bazı püf noktalar olmalıdır. Şanslıysanız bir CMS bulmuş olabilir ve bazı taramalar yapmış olabilirsiniz.

Adım adım Web Uygulaması Keşfi

Bu noktadan itibaren web uygulamasıyla etkileşime geçmeye başlayacağız.

İlk kontroller

İlginç bilgiler içeren varsayılan sayfalar:

  • /robots.txt
  • /sitemap.xml
  • /crossdomain.xml
  • /clientaccesspolicy.xml
  • /.well-known/
  • Ana ve ikincil sayfalardaki yorumları da kontrol edin.

Hataları Zorlama

Web sunucuları, tuhaf verilerin kendilerine gönderildiğinde beklenmedik şekilde davranabilir. Bu, zafiyetleri veya duyarlı bilgilerin ifşasını açabilir.

  • /whatever_fake.php (.aspx,.html,.vb gibi) gibi sahte sayfalara erişin
  • Hatalar oluşturmak için "[]", "]]" ve "[[" gibi çerez değerlerini ve parametre değerlerini ekleyin
  • URL'nin sonuna /~randomthing/%s olarak giriş yaparak hata oluşturun
  • PATCH, DEBUG gibi farklı HTTP Fiillerini veya yanlış olanları FAKE deneyin

Dosya yükleme olanağını kontrol edin (PUT fiili, WebDav)

Eğer WebDav'ın etkin olduğunu fakat kök klasöre dosya yüklemek için yeterli izninizin olmadığını bulursanız:

  • Kimlik bilgilerini Brute Force ile deneyin
  • WebDav aracılığıyla dosya yüklemeye çalışın ve web sayfasının içinde bulunan diğer klasörlere. Diğer klasörlere dosya yüklemek için izniniz olabilir.

SSL/TLS zafiyetleri

  • Uygulama herhangi bir yerde HTTPS kullanımını zorlamıyorsa, o zaman MitM'ye karşı savunmasızdır
  • Uygulama, HTTP kullanarak hassas verileri (şifreler) gönderiyorsa. Bu yüksek bir zafiyettir.

testssl.sh kullanarak zafiyetleri kontrol edin (Hata Ödülü programlarında muhtemelen bu tür zafiyetler kabul edilmeyecektir) ve zafiyetleri tekrar kontrol etmek için a2sv 'yi kullanın:

./testssl.sh [--htmlfile] 10.10.10.10:443
#Use the --htmlfile to save the output inside an htmlfile also

# You can also use other tools, by testssl.sh at this momment is the best one (I think)
sslscan <host:port>
sslyze --regular <ip:port>

SSL/TLS Zafiyetleri Hakkında Bilgi:

Ağ Taraması

Web içinde bir tür örümcek başlatın. Örümceğin amacı, test edilen uygulamadan mümkün olan en fazla yol u bulmaktır. Bu nedenle, mümkün olduğunca çok geçerli yol bulmak için web taraması ve harici kaynaklar kullanılmalıdır.

  • gospider (go): HTML örümcek, JS dosyalarında LinkFinder ve harici kaynaklar (Archive.org, CommonCrawl.org, VirusTotal.com, AlienVault.com).
  • hakrawler (go): HTML örümcek, JS dosyaları için LinkFinder ve harici kaynak olarak Archive.org.
  • dirhunt (python): HTML örümcek, ayrıca "önemli dosyaları" belirtir.
  • evine (go): Etkileşimli CLI HTML örümcek. Ayrıca Archive.org'da arama yapar.
  • meg (go): Bu araç bir örümcek değil ancak yararlı olabilir. Sadece her bir ana bilgisayarda bir dosya ve her bir ana bilgisayarda her yolun alınmasını ve yanıtın kaydedilmesini gösterebilirsiniz.
  • urlgrab (go): JS derleme yeteneklerine sahip HTML örümcek. Ancak, bakımsız gibi görünüyor, derlenmiş sürüm eski ve mevcut kod derlenmiyor gibi görünüyor.
  • gau (go): Harici sağlayıcıları kullanan HTML örümcek (wayback, otx, commoncrawl).
  • ParamSpider: Bu betik parametre içeren URL'leri bulacak ve listeleyecektir.
  • galer (go): JS derleme yeteneklerine sahip HTML örümcek.
  • LinkFinder (python): JS dosyalarında yeni yollar arayabilen JS güzelleştirme yeteneklerine sahip HTML örümcek. Ayrıca JSScanner'a da bakmak faydalı olabilir, bu, LinkFinder'ın bir sarmalayıcısıdır.
  • goLinkFinder (go): Hem HTML kaynağında hem de gömülü javascript dosyalarında uç noktaları çıkarmak için. Hata avcıları, kırmızı takımlar, bilgi güvenliği ninjaları için kullanışlıdır.
  • JSParser (python2.7): AJAX isteklerini kolayca keşfetmek için Tornado ve JSBeautifier kullanan bir python 2.7 betiği. Bakımsız gibi görünüyor.
  • relative-url-extractor (ruby): Bir dosya (HTML) verildiğinde, çirkin (minify) dosyalardan göreceli URL'leri bulmak ve çıkarmak için nifty düzenli ifadeleri kullanır.
  • JSFScan (bash, çeşitli araçlar): Çeşitli araçlar kullanarak JS dosyalarından ilginç bilgiler toplar.
  • subjs (go): JS dosyalarını bulur.
  • page-fetch (go): Bir sayfayı başsız bir tarayıcıda yükler ve sayfayı yüklemek için yüklenen tüm URL'leri yazdırır.
  • Feroxbuster (rust): Önceki araçların birkaç seçeneğini karıştıran içerik keşif aracı
  • Javascript Parsing: JS dosyalarında yol ve parametreleri bulmak için bir Burp uzantısı.
  • Sourcemapper: .js.map URL'si verildiğinde güzel JS kodunu alacak bir araç
  • xnLinkFinder: Belirli bir hedef için uç noktaları keşfetmek için kullanılan bir araçtır.
  • waymore: Wayback makinesinden bağlantıları keşfedin (ayrıca wayback'te yanıtları indirin ve daha fazla bağlantı arayın
  • HTTPLoot (go): (Formları doldurarak bile) tarama yapın ve özel regex'leri kullanarak hassas bilgileri bulun.
  • SpiderSuite: Spider Suite, siber güvenlik profesyonelleri için tasarlanmış gelişmiş çok özellikli GUI web güvenliği Tarama/Örümcek aracıdır.
  • jsluice (go): JavaScript kaynak kodundan URL'leri, yolları, sırları ve diğer ilginç verileri çıkarmak için bir Go paketi ve komut satırı aracı'dır.
  • ParaForge: Parametreleri ve uç noktaları çıkarmak için isteğin burp geçmişinden özel kelime listesi oluşturmak için basit bir Burp Suite uzantısıtır.

Dizinler ve Dosyalar İçin Kaba Kuvvet Saldırısı

Kök klasörden kaba kuvvet saldırısına başlayın ve bu yöntemle bulunan tüm dizinleri ve Örümcek tarafından keşfedilen tüm dizinleri kaba kuvvet saldırısına tabi tutun (bu kaba kuvvet saldırısını tekrarlayarak ve bulunan dizinlerin adlarını kullanılan kelime listesinin başına ekleyerek yapabilirsiniz).
Araçlar:

  • Dirb / Dirbuster - Kali'de bulunur, eski (ve yavaş) ancak işlevsel. Otomatik imzalı sertifikalara ve tekrarlayan aramaya izin verir. Diğer seçeneklerle karşılaştırıldığında çok yavaş.
  • Dirsearch (python): Otomatik imzalı sertifikalara izin vermez ancak tekrarlayan aramaya izin verir.
  • Gobuster (go): Otomatik imzalı sertifikalara izin verir, tekrarlayan arama yapmaz.
  • Feroxbuster - Hızlı, tekrarlayan aramayı destekler.
  • wfuzz wfuzz -w /usr/share/seclists/Discovery/Web-Content/raft-medium-directories.txt https://domain.com/api/FUZZ
  • ffuf - Hızlı: ffuf -c -w /usr/share/wordlists/dirb/big.txt -u http://10.10.10.10/FUZZ
  • uro (python): Bu bir örümcek değil, bulunan URL'lerin listesini "tekrarlanan" URL'leri silmek için kullanılan bir araçtır.
  • Scavenger: Farklı sayfaların burp geçmişinden dizin listesi oluşturmak için bir Burp Uzantısı
  • TrashCompactor: Js içe aktarmalara dayalı tekrarlanan işlevselliklere sahip URL'leri kaldırır.
  • Chamaleon: Kullanılan teknolojileri tespit etmek ve kullanılacak kelime listelerini seçmek için wapalyzer'ı kullanan bir araç.

Tavsiye edilen sözlükler:

Not alındığında yeni bir dizin keşfedildiğinde, Brute-Force edilmelidir.

Her bulunan dosyada ne kontrol edilmelidir

  • Bozuk bağlantı kontrolcüsü: Ele geçirilebilecek HTML içindeki bozuk bağlantıları bulun
  • Dosya Yedekleri: Tüm dosyaları bulduktan sonra, tüm yürütülebilir dosyaların yedeklerini arayın (".php", ".aspx"...). Bir yedek dosyanın adlandırılması için yaygın varyasyonlar: file.ext~, #file.ext#, ~file.ext, file.ext.bak, file.ext.tmp, file.ext.old, file.bak, file.tmp ve file.old. Ayrıca bfac veya backup-gen'i kullanabilirsiniz.
  • Yeni parametreler keşfet: Gizli parametreleri keşfetmek için Arjun, parameth, x8 ve Param Miner **gibi araçları kullanabilirsiniz. Mümkünse, her yürütülebilir web dosyasında gizli parametreleri aramayı deneyebilirsiniz.
  • Arjun tüm varsayılan kelime listeleri: https://github.com/s0md3v/Arjun/tree/master/arjun/db
  • Param-miner “params” : https://github.com/PortSwigger/param-miner/blob/master/resources/params
  • Assetnote “parameters_top_1m”: https://wordlists.assetnote.io/
  • nullenc0de “params.txt”: https://gist.github.com/nullenc0de/9cb36260207924f8e1787279a05eb773
  • Yorumlar: Tüm dosyaların yorumlarını kontrol edin, kimlik bilgileri veya gizli işlevsellik bulabilirsiniz.
  • CTF oynuyorsanız, bir "ortak" hile, bilgileri sayfanın sağında (verileri tarayıcıyla açarsanız verileri görmemeniz için yüzlerce boşluk kullanarak) yorumlara gizlemektir. Diğer bir olasılık da birkaç yeni satır kullanarak ve web sayfasının altında bir yorumda bilgi gizlemektir.
  • API anahtarları: Eğer herhangi bir API anahtarı bulursanız, farklı platformların API anahtarlarını nasıl kullanılacağını gösteren bir rehber vardır: keyhacks, zile, truffleHog, SecretFinder, RegHex, DumpsterDive, EarlyBird
  • Google API anahtarları: Eğer AIzaSyA-qLheq6xjDiEIRisP_ujUseYLQCHUjik gibi bir API anahtarı bulursanız, anahtarın hangi API'lere erişebileceğini kontrol etmek için gmapapiscanner projesini kullanabilirsiniz.
  • S3 Buckets: Spidering yaparken, herhangi bir alt alan adının veya bağlantının bir S3 bucket ile ilişkili olup olmadığına bakın. Bu durumda, bucket'ın izinlerini kontrol edin.

Özel bulgular

Spidering ve brute-force yaparken dikkat etmeniz gereken ilginç şeyler bulabilirsiniz.

İlginç dosyalar

403 Forbidden/Basic Authentication/401 Unauthorized (atlatma)

{% content-ref url="403-and-401-bypasses.md" %} 403-and-401-bypasses.md {% endcontent-ref %}

502 Proxy Hatası

Eğer herhangi bir sayfa bu kodla yanıt verirse, muhtemelen kötü yapılandırılmış bir proxydir. Eğer GET https://google.com HTTP/1.1 gibi bir HTTP isteği gönderirseniz (host başlığı ve diğer yaygın başlıklarla), proxy google.com'a erişmeye çalışacak ve bir SSRF bulmuş olacaksınız.

NTLM Kimlik Doğrulama - Bilgi sızdırma

Eğer kimlik doğrulama isteyen çalışan sunucu Windows ise veya kimlik doğrulama isteyen bir giriş bulursanız (ve alan adı isteniyorsa), bir bilgi sızdırma provoke edebilirsiniz.
“Authorization: NTLM TlRMTVNTUAABAAAAB4IIAAAAAAAAAAAAAAAAAAAAAAA=” başlığını gönderin ve NTLM kimlik doğrulamasının çalışma şekli nedeniyle, sunucu iç bilgilerle (IIS sürümü, Windows sürümü...) "WWW-Authenticate" başlığı içinde yanıt verecektir.
Bunu "http-ntlm-info.nse" nmap eklentisi kullanarak otomatikleştirebilirsiniz.

HTTP Yönlendirmesi (CTF)

Bir Yönlendirme içine içerik yerleştirmek mümkündür. Bu içerik kullanıcıya gösterilmeyecek (tarayıcı yönlendirmeyi gerçekleştireceği için), ancak içinde bir şey gizlenebilir.

Web Güvenlik Açıklıklarının Kontrol Edilmesi

Web uygulamasının kapsamlı bir şekilde numaralandırılmasının ardından birçok olası güvenlik açığı kontrol edilmelidir. Kontrol listesini burada bulabilirsiniz:

{% content-ref url="../../pentesting-web/web-vulnerabilities-methodology/" %} web-vulnerabilities-methodology {% endcontent-ref %}

Web açıklıkları hakkında daha fazla bilgi edinin:

Sayfaları Değişiklikler İçin İzleme

https://github.com/dgtlmoon/changedetection.io gibi araçları kullanarak sayfaları izleyebilir ve güvenlik açıklıkları ekleyebilecek değişiklikleri kontrol edebilirsiniz.

Eğer hacking kariyeri sizi ilgilendiriyorsa ve hacklenemez olanı hacklemek istiyorsanız - işe alıyoruz! (akıcı şekilde Lehçe yazılı ve konuşma gereklidir).

{% embed url="https://www.stmcyber.com/careers" %}

HackTricks Otomatik Komutları

Protocol_Name: Web    #Protocol Abbreviation if there is one.
Port_Number:  80,443     #Comma separated if there is more than one.
Protocol_Description: Web         #Protocol Abbreviation Spelled out

Entry_1:
Name: Notes
Description: Notes for Web
Note: |
https://book.hacktricks.xyz/pentesting/pentesting-web

Entry_2:
Name: Quick Web Scan
Description: Nikto and GoBuster
Command: nikto -host {Web_Proto}://{IP}:{Web_Port} &&&& gobuster dir -w {Small_Dirlist} -u {Web_Proto}://{IP}:{Web_Port} && gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_3:
Name: Nikto
Description: Basic Site Info via Nikto
Command: nikto -host {Web_Proto}://{IP}:{Web_Port}

Entry_4:
Name: WhatWeb
Description: General purpose auto scanner
Command: whatweb -a 4 {IP}

Entry_5:
Name: Directory Brute Force Non-Recursive
Description:  Non-Recursive Directory Brute Force
Command: gobuster dir -w {Big_Dirlist} -u {Web_Proto}://{IP}:{Web_Port}

Entry_6:
Name: Directory Brute Force Recursive
Description: Recursive Directory Brute Force
Command: python3 {Tool_Dir}dirsearch/dirsearch.py -w {Small_Dirlist} -e php,exe,sh,py,html,pl -f -t 20 -u {Web_Proto}://{IP}:{Web_Port} -r 10

Entry_7:
Name: Directory Brute Force CGI
Description: Common Gateway Interface Brute Force
Command: gobuster dir -u {Web_Proto}://{IP}:{Web_Port}/ -w /usr/share/seclists/Discovery/Web-Content/CGIs.txt -s 200

Entry_8:
Name: Nmap Web Vuln Scan
Description: Tailored Nmap Scan for web Vulnerabilities
Command: nmap -vv --reason -Pn -sV -p {Web_Port} --script=`banner,(http* or ssl*) and not (brute or broadcast or dos or external or http-slowloris* or fuzzer)` {IP}

Entry_9:
Name: Drupal
Description: Drupal Enumeration Notes
Note: |
git clone https://github.com/immunIT/drupwn.git for low hanging fruit and git clone https://github.com/droope/droopescan.git for deeper enumeration

Entry_10:
Name: WordPress
Description: WordPress Enumeration with WPScan
Command: |
?What is the location of the wp-login.php? Example: /Yeet/cannon/wp-login.php
wpscan --url {Web_Proto}://{IP}{1} --enumerate ap,at,cb,dbe && wpscan --url {Web_Proto}://{IP}{1} --enumerate u,tt,t,vp --passwords {Big_Passwordlist} -e

Entry_11:
Name: WordPress Hydra Brute Force
Description: Need User (admin is default)
Command: hydra -l admin -P {Big_Passwordlist} {IP} -V http-form-post '/wp-login.php:log=^USER^&pwd=^PASS^&wp-submit=Log In&testcookie=1:S=Location'

Entry_12:
Name: Ffuf Vhost
Description: Simple Scan with Ffuf for discovering additional vhosts
Command: ffuf -w {Subdomain_List}:FUZZ -u {Web_Proto}://{Domain_Name} -H "Host:FUZZ.{Domain_Name}" -c -mc all {Ffuf_Filters}
AWS hacklemeyi sıfırdan kahramana öğrenin htARTE (HackTricks AWS Red Team Expert) ile!

HackTricks'ı desteklemenin diğer yolları: