(lat. für Niederlassung, Ansiedelung) beschreibt, dass europäische Kolonialmächte seit dem 15. Jh. Territorien anderer Kontinente eingenommen und eine Kolonialherrschaft errichtet haben. Viele Regionen und ihre Bewohner*innen wurden in Besitz genommen, ausgebeutet und verdrängt. Die kolonialisierte Bevölkerung in Afrika, Asien oder den Amerikas wurde unterdrückt, versklavt oder getötet. Legitimiert wurde dies mit pseudo-wissenschaftlichen Rassentheorien und dem Glauben an die eigene kulturelle Überlegenheit. Eine einheitliche Definition von Kolonialismus ist ungenau, weil die Kolonialmächte unterschiedlich herrschten. Konkreter lassen sich beispielsweise der deutsche oder französische Kolonialismus fassen. Der Begriff Kolonialismus beschreibt außerdem historisch das Zeitalter des Kolonialismus, das mit Christoph Kolumbus 1492 begann und bis ins 20. Jh. reichte. Ab den 1950er Jahren setzte die sogenannte Dekolonialisierung ein, in der die kolonialisierten Nationen ihre Unabhängigkeit erkämpften. Kritiker*innen sprechen jedoch von einem bis heute wirksamen Neokolonialismus.

Weiterführende Begriffe:Afrika, Indigene, Anti-Schwarzer Rassismus, Exotismus