Citat:
Ursprungligen postat av
FuckYes
Runt år 1939 och däromkring var det ganska populärt med nazim i bl.a. Tyskland, även Sverige och andra länder tyckte inte det var helt fel. Men nuförtiden tycks det som att nazism inte är lika populärt, rent av fått dåligt rykte. Varför är det så? Sen verkar det finnas en hel del fördomar om nazister. Varför är det så? Jobbar man inte aktivt i skolan och samhället mot fördomar?
Citat:
Ursprungligen postat av
tjanska
Segraren skriver historien (och framtiden), hade Tyskland vunnit så hade dess ideer funnits och även en annan typ av EU
Judarna vann och skrev sedermera historien.
Juden blev förintad (holocaust) och ändå styr de samtliga världsbanker. Alla mediaföretag, big tech och även big pharma. Även supermakten USA. 😎
Hur I helvete gick
det till? Frågar en vän av ordning.