• 3
  • 4
2022-08-02, 03:27
  #37
Medlem
kraftfoders avatar
Citat:
Ursprungligen postat av TrixNe
Behöver ta ner en hemsida snabbt.
Den måste ligga nere i några dagar.

Det jag vet är hemsidans url.
Jag har 10 st tabbar uppe som laddar om hemsidan var 5 sekund. Lyckas att få hem ca 3 gb i timmen.

Stämmer det att hemsidor har en viss trafikgräns? Typ 100gb - 1000gb i månaden? Unlimited?

Lyckas man suga ut all denna trafik så stängs sidan ner om ägaren inte fyller på med ny trafik?

Tror faktiskt det du ponerar är olagligt.
Men 3GB i timmen? Kör du v90-modem eller?

Bäst, inom lagens råmärken, är väl om du "rekommenderar" hemsidan till höger och vänster.
Tryck upp flyers och gör "reklam" ute på stan för sidan. Då drunknar den antagligen i all ny trafik.
Citera
2022-08-02, 03:32
  #38
Medlem
Citat:
Ursprungligen postat av kraftfoder
Tror faktiskt det du ponerar är olagligt.
Men 3GB i timmen? Kör du v90-modem eller?

Bäst, inom lagens råmärken, är väl om du "rekommenderar" hemsidan till höger och vänster.
Tryck upp flyers och gör "reklam" ute på stan för sidan. Då drunknar den antagligen i all ny trafik.


Du verkar inte särskilt tekniskt insatt.

V90 kunde överföra ca 10-20MB per timme! Inte 3 GB som du nämner. Vilket är 150 ggr mer.
Citera
2022-08-02, 03:41
  #39
Bannlyst
Citat:
Ursprungligen postat av kraftfoder
Tror faktiskt det du ponerar är olagligt.
Men 3GB i timmen? Kör du v90-modem eller?

Bäst, inom lagens råmärken, är väl om du "rekommenderar" hemsidan till höger och vänster.
Tryck upp flyers och gör "reklam" ute på stan för sidan. Då drunknar den antagligen i all ny trafik.

Vad ska jag göra liksom? Har du tips eller ville du bara skriva en kommentar?

Har ok bandbredd. Tycker själv att det borde gå snabbare har fått upp hastigheten lite med den där wspider men behöver typ x10 till.

Kör den där wget kommando ej wget2

Finns det nån kommando som snabbar på?

Ska kolla vad wuseman skrev tror man kan ändra lite saker för att snabba på lite.
__________________
Senast redigerad av TrixNe 2022-08-02 kl. 03:48.
Citera
2022-08-02, 03:47
  #40
Bannlyst
Citat:
Ursprungligen postat av TrixNe
Vad ska jag göra liksom? Har du tips eller ville du bara skriva en kommentar?

Har ok bandbredd. Tycker själv att det borde gå snabbare.

Kör den där wget kommando ej wget2

Finns det nån kommando som snabbar på?

Du är vaken jämt min vän, haha!

Ja, du kan ju öppna flera fönster? Eller köra dom i bakgrunden? Fantasi är viktigt.

lägg till ett & på slutet så går den i bakgrunden.

Har du xargs i git?

Kod:
seq 100|xargs -n10 -P2

Vad blev svaret? 10 columner? 10

Kod:
 -P --max-procs=max-procs > Run up to max-procs processes at a time; the default is 1.

Kod:
-n --max-args=max-args >    Use at most max-args arguments per command line

Du förresten. Httrack kan köra flera proccesser samtidigt i windows: Upp till dig, säfger man inget så ve tjag inte men eftersom du vill snabba på detta, se nedan:
Skapa en fil med urlen till siten du vill ladda ner, kopiera och klistra in det nedan en gång.

Kod:
echo 'https://www.target.com' > url_list.txt

Stoppa det gam,la, och istället, gör detta:

Kod:
cat  url_list.txt | xargs -P25 -I{} wget {}

Vrooooooooooooooooooooooom.

Gör det du gör nu 25 gånger istället, parallelt samtidigt. Hoppas xargs finns men det skall vara standard. Hoppas du vet vad du gör, jag bara visar!


PS: Just det, när jag var en skitunge för himla många årsen så minns jag att jag skapade en fil i windows, jag föppnade notepad, skrev:

explorer.exe
explorer.exe
explorer.exe
explorer.exe

+ Tuseen gång till, sedan sparade jag den som en bat så skicka iväg wallmsg eller netmsg var de kanske minns inte alls men iaf, fick iväg till skolans alla datorer och då startade 1000 explorer.exe på varje dator i skolan. Dom dog.

typ: internet.exe https://target com. markera texten, kopiera och klsistra in och håll in ctrl+c ett tag så har du snart startatr 100 sidor samtidigt men din dator krashar kanske, ja, det6 är bara en ide jag har ingen aning om hur windows men de det funkade i skolan iaf ! Haha. Men det var 20årsen, mnen bat finns väl idag med?

internet.exe https://target .com
internet.exe https://target .com
internet.exe https://target .com
internet.exe https://target .com

osv, dåligt men why not om inget lkinux med mera funkar


Du, förrsesten. Skapa en sån fil, sätt en ikon på den som verkar logisk och snygg, skicka den till site ägaren om du har möjligheten och hoppas hen trycker på den, haha! Värdelns sämsta grej typ men ja, det funkade iaf i skolan. hahaha. Finns inga dåliga metoder Detta måste ju vara mkt bättre en att göra de tmanuellet iaf:

Typ: C:\Program Files\Firefox\firefox.exe https://www.target.com

Spara som bat, tryck på bat filen så det startart och börja om igen.

Ha det.

// wuseman
__________________
Senast redigerad av wuseman 2022-08-02 kl. 04:15.
Citera
2022-08-02, 03:48
  #41
Bannlyst
Citat:
Ursprungligen postat av wuseman
Du är vaken jämt min vän, haha!

Ja, du kan ju öppna flera fönster? Eller köra dom i bakgrunden?

lägg till ett & på slutet så går den i bakgrunden.

Ska testa nu. Tänkte inte på det lol.

5 mb per sekund just nu

5 x 60 = 30 mb per minut.
30 x 60 = 1.8 gb i timmen.

Fan måste få upp farten lite till asså.

Vill komma upp i 300gb-500gb inom 24-48 timmar sen vet man om de har nån trafik limit eller ej. Kanske 1tb det brukar man ha också.
__________________
Senast redigerad av TrixNe 2022-08-02 kl. 04:03.
Citera
2022-08-02, 04:07
  #42
Bannlyst
Citat:
Ursprungligen postat av wuseman
Du är vaken jämt min vän, haha!

Ja, du kan ju öppna flera fönster? Eller köra dom i bakgrunden? Fantasi är viktigt.

lägg till ett & på slutet så går den i bakgrunden.

Har du xargs i git?

Kod:
seq 100|xargs -n10 -P2

Vad blev svaret? 10 columner? 10

Kod:
 -P --max-procs=max-procs > Run up to max-procs processes at a time; the default is 1.

Kod:
-n --max-args=max-args >    Use at most max-args arguments per command line

Du förresten. Httrack kan köra flera proccesser samtidigt i windows: Upp till dig, säfger man inget så ve tjag inte men eftersom du vill snabba på detta, se nedan:
Skapa en fil med urlen till siten du vill ladda ner, kopiera och klistra in det nedan en gång.

Kod:
echo 'https://www.target.com' > url_list.txt

Stoppa det gam,la, och istället, gör detta:

Kod:
cat  url_list.txt | xargs -P25 -I{} wget {}

Vrooooooooooooooooooooooom. Gör det du gör nu 25 gånger istället, parallelt samtidigt. Hoppas xargts finns men det skall vara standard. Hoppas du vet vad du gör, jag bara visar!

Dags att sova, ja nästan hela dagen med paus och bara 1 fönster.

Ca 30gb totalt sen igår med många timmars paus.

Nu har jag fått upp farten ca 5 mb per sekund.

Ställer om räknaren nu ska se hur många gb det blir när jag vaknar.
Citera
2022-08-02, 04:25
  #43
Bannlyst
Citat:
Ursprungligen postat av TrixNe
Dags att sova, ja nästan hela dagen med paus och bara 1 fönster.

Ca 30gb totalt sen igår med många timmars paus.

Nu har jag fått upp farten ca 5 mb per sekund.

Ställer om räknaren nu ska se hur många gb det blir när jag vaknar.

Okidoki hade du kört wget2 och haft bandbredd till det så kan du ta 30GB * 250, det är som natt och dag att jämföra, det kommer ta väldigt lång tid om det inte är högre hastighetr. Men men.

Sök på "loic ddos windows" på google. Det kanske är bättre.. DDOS tool för windows med grafisk desgin. Det är ju tänkt för att det du vill, wget är verkligen inte rätt egen6t5ligen men det är bättrre än manuellt men de tär inte det "optimala" verktygret typ, men det funkartills du hittar bättrte. httrack finns också för windows med flera olika nedladdningfar samtidigt, de kanske också funkar bätre i just windows , där klan du kölra hur många du vill samtidigt så det är nog bättre altenativ:

https://www.httrack.com/page/21/en/index.html

Altenativ finns, nåja! Ha de gött

Citat:
How not to Use

What you mustn't do : bandwidth abuse, and other bad behaviours

https://www.httrack.com/html/index.html
https://www.httrack.com/page/20/en/index.html

Händer nog oftare än man tror :P

Det finns ju hur många som helst till windows:

https://www.f5.com/labs/articles/thr...dos-game-22423

// wuiseman
__________________
Senast redigerad av wuseman 2022-08-02 kl. 04:36.
Citera
2022-08-02, 06:30
  #44
Bannlyst
Citat:
Ursprungligen postat av wuseman
Okidoki hade du kört wget2 och haft bandbredd till det så kan du ta 30GB * 250
// wuiseman

Tackar det var hhtrack som jag började med manuellt innan du svarade och vi löste det där med git och wget.

Ska försöka fixa wget2 under dagen.

Helt ny på git konsol.
Citera
2025-02-12, 17:48
  #45
Medlem
Man kanske inte ens behöver överbelasta sidan för att den ska få problem.

Tänk flashback bara, om du skulle skapa 10 tusen konton och sen rapportera offtopic på massa inlägg eller spamma moderatorer med meddelanden så skulle det bli ganska jobbigt att sålla ut äkta klagomål och meddelanden eller jobbigt att ens rensa allt skit du skapar.

Jag drev ett litet forum förut och då hände precis det,kunde logga in och ha 500 meddelanden från 500 olika användare och jag kunde ju inte bara rensa allt då det fanns äkta meddelanden bland dom.

Vill du ta ner en sida genom överbelastning så finns det ställen du kan betala för det,har inte koll på vilka sidor som är legit men kolla runt på olika hacking forum så finner du nog nåt.
Citera
  • 3
  • 4

Skapa ett konto eller logga in för att kommentera

Du måste vara medlem för att kunna kommentera

Skapa ett konto

Det är enkelt att registrera ett nytt konto

Bli medlem

Logga in

Har du redan ett konto? Logga in här

Logga in