L'acte fondateur de l'Allemagne a eu lieu en France Proposé par Européen le 28/11/2019 dans Histoire 12 L'Allemagne est née en France. Après la défaite française lors de la guerre contre la Prusse et ses alliés de 1870-1871, les territoires allemands signèrent la création de l'Empire Allemand et l'unification allemande dans la galerie des Glaces du Château de Versailles, le 18 janvier 1871. En savoir plus