Tjoo har byggt en lngre tid byggt p ett bb framework till och frn i bash med externa verktyg s som subfinder, wfuzz, gau, nuclei med egna templates etc, sammt scripts skrivna i Python, Golang sammt ngra i Bash. Frst var problemet trafiken s att man blev rate-limitad. Fixade det igenom att efter alla aktiva scannar byter scriptet proxy sammt lser det in 5 domains fr tillfllet och sen scramblar alla endpoints fr att undvika att bli rate-limitad av ex Akamai/Cloudflare eller deras IDS/WAF.
Nu vill jag bygga om mitt framework i molnet/AWS, s att jag kan kra mina scripts parallellt. Har inte ingen erfarenhet av AWS annat en inom SSRF, lsa S3 buckets sammt det jag kollat igenom ikvll via dashboarden och lite allmn lsning. Hur borde man fixa detta? Lste Hakulekes lsning var han anvnder Docker containers som workers som kontrolleras av Fargate och ECS, EFS fr att dela configs och filer till Docker containrarna, SQS fr att hantera jobb och Aurora som databas.
Undrar dock hur det funkar att anvnda Batch till workers ihop med EC2 som skriver till en S3 bucket. Eller borde man anvnda Lambda som skriver till en S3 bucket sammt en databas fr att lttare hlla reda p saker? Borde man kra p Hakulekes id? Eller Fargate med ECS, EC2 och en S3 bucket alt databas?
Sen kommer nsta problem. Att splitta upp scriptet, det r nstan 2000 rader lngt. Och hur funkar uttgende trafik via AWS? Hamnar jag lgga min Proxy changer function i varje Docker image? Alla Docker images skulle d vara Bash med antingen ngot verktyg alt ett script i. Idr p hur man skulle fixa d fr tillfllet hller det mesta ihop, ex global variables igenom scriptet som anvnds till exempel till collaborator URL:n. Sammt mste det brja med att executa frsta delen av scriptet dr scriptet gr passiv sammt lite aktiv enumerering sen kan alla workers dra igng med outputten dom fr. Ngon som har erfarenhet av AWS Cloud och har ngon bra id? GNU parallel r ingenting jag r intresserad av.
__________________
Senast redigerad av serializedobject64 2024-12-05 kl. 23:58.