Mike, 15 Jahre, fragte am 02. Juni 2021
Der Zweite Weltkrieg wurde von Deutschland begonnen. Er begann am 01. September 1939 mit dem Überfall der deutschen Wehrmacht auf Polen.
Nach Meinung Hitlers sollten die Deutschen mehr Raum zum Leben haben. Um diesen sogenannten neuen "Lebensraum" für die Deutschen zu schaffen, sollten Länder in Osteuropa erobert werden. Um die von Hitler benannten "Feinde Deutschlands" zu besiegen, sollten alle Juden und Andersdenkende ermordet werden. Hitlers Ziele waren also klar: Die Vernichtung aller Juden, die Eroberung von "Lebensraum" im Osten und die Überlegenheit über andere Länder. Diese Ziele konnte er nur durch einen Krieg erreichen. Am 1. September 1939 begann der Zweite Weltkrieg durch den Einmarsch der Deutschen in Polen. Während des Nationalsozialismus gab es die grausame Vorstellung, dass es wertvolles und unwertes Leben gab. Diese Vorstellungen sind nicht nur grausam, sondern auch falsch. Jeder Mensch ist wertvoll.
Hier kannst du noch mehr über den Ablauf des Zweiten Weltkrieges erfahren. Dort beantworten wir die Frage: Was geschah im Zweiten Weltkrieg?
Adolf Hitler und die Nationalsozialist*innen haben den Zweiten Weltkrieg verloren. Die Alliierten, also die Siegermächte des Zweiten Weltkrieges, die USA, Frankreich, Großbritannien und die Sowjetunion haben Deutschland in sogenannte Besatzungszonen aufgeteilt und dann Deutschland beim Wiederaufbau unterstützt. Außerdem wurden viele Verantwortliche für die begangenen Kriegsverbrechen in den sogenannten Nürnberger Prozessen bestraft. Vor allem waren das Führungspersonen des Militärs und der Nationalsozialistischen Partei.
Hier findest du noch weitere Informationen, wie es nach dem Zweiten Weltkrieg weiterging.
In unserem Themenbereich Nationalsozialismus kannst du noch mehr zu dem Thema erfahren.