rita, fragte am 08. Oktober 2019
Wie Hitler an die Macht kam, hat unter anderem etwas mit dem Ersten Weltkriegs und den wirtschaftlichen Problemen in der Zeit danach zu tun. Das Deutsche Reich hatte den Ersten Weltkrieg (1914-1918) verloren. Im Vertrag von Versailles (1919) wurde dem Deutschen Reich die alleinige Kriegsschuld festgelegt. Deutschland musste deshalb Gebiete an Polen und Frankreich abgeben und an die Siegermächte viel Geld zahlen. Dazu kamen große wirtschaftliche Probleme und eine hohe Arbeitslosigkeit.
Viele Deutsche litten unter diesen Umständen und fühlten sich ungerecht behandelt. Diese Stimmung brachte radikalen Parteien, wie den Nationalsozialisten, großen Zulauf. Hitler und die Nationalsozialisten wussten, was sich die Menschen wünschten und versprachen ihnen, das deutsche "Unglück" zu beenden. Er versprach Wohlstand und Glück. Und er versprach dem deutschen Volk den Platz in der Welt zu erkämpfen, der ihm zustehen würde. Viele glaubten an die Versprechungen Hitlers.
Hitler bereitete den geplanten Krieg lange vor: 1938 marschierten deutsche Truppen in Österreich ein. Österreich wurde Teil Deutschlands. Weitere Gebiete in Osteuropa wurden an das Deutsche Reich angeschlossen. Am 1. September 1939 begann der Zweite Weltkrieg durch den Einmarsch der Deutschen in Polen. Auf Zeitklicks kannst du mehr über den Aufstieg Hitlers nachlesen. In unserem Themengebiet Nationalsozialismus kannst du mehr zu dem Thema erfahren.