Verbrechen der deutschen Kolonialzeit

Als Kolonialmacht war Deutschland verantwortlich für Gewalt, Enteignung und blutig niedergeschlagene Aufstände. Ein Überblick über die betroffenen Länder und wie diese Zeit sie heute noch prägt.

Von Rixa Rieß und Jana Anzlinger

Zur aktuellen Debatte um Rassismus in Deutschland gehört auch die Geschichte des Kolonialismus und seiner Auswirkungen. Zum Ende des 19. Jahrhunderts begann das damalige Deutsche Kaiserreich seine Machtansprüche auf Teile des afrikanischen Kontinents sowie Asien und den pazifischen Raum auszuweiten. An Fläche verfügten nur Großbritannien und Frankreich über mehr Kolonialgebiete als Deutschland. Die wirtschaftlichen Vorteile, die sich die Kolonialmächte von der Besetzung der Gebiete erhofften, blieben aus. Tatsächlich waren die erzielten Einnahmen durch den Handel meist geringer als die Kosten, die durch die Beamten vor Ort und die Erschließung der Gebiete entstanden.