Aggressionskrieg
Ein Aggressionskrieg ist ein Angriffskrieg, der von einem Staat ausgeht und das Ziel hat, sich fremdes Territorium zu unterwerfen und wirtschaftlich auszubeuten. Das Gegenteil ist ein Verteidigungskrieg.So können zum Beispiel die beiden Weltkriege auch als Aggressionskriege der Deutschen betrachtet werden.