Блог

Какво се случва с Германия след Първата световна война?

Какво се случва с Германия след Първата световна война?

След Първата световна война (1914-1918) Германия преживява тежки политически, икономически и социални последици. Ето основните събития и последствия за страната след края на войната: 1. Версайският договор (1919) Един от...