A B C D E F G I K L M N O P Q R S T V W Z
De Di Dr

Dekolonisierung

Definition: Dekolonisierung bezeichnet den Prozess, koloniale Strukturen und Machtverhältnisse in Gesellschaften abzubauen, indem historische Ungerechtigkeiten und Unterdrückungssysteme, die durch Kolonialismus entstanden sind, hinterfragt und korrigiert werden. Dies umfasst kulturelle, politische, wirtschaftliche und soziale Veränderungen, um ehemals kolonisierten Völkern Souveränität und Würde zurückzugeben.

Kritik: Dekolonisierung ist zur intellektuellen Modefloskel mutiert, die jeder progressiven Bewegung ihren Stempel aufdrücken muss. Anstatt echte Lösungen für soziale Ungleichheiten zu bieten, wird der Begriff als ideologischer Kampfbegriff verwendet, um westliche Traditionen und Werte pauschal zu verurteilen und einen Schuldkult zu perpetuieren. So wird eine komplexe historische Realität auf einfache Feindbilder reduziert, während die tatsächlichen Probleme vieler postkolonialer Gesellschaften weiterhin ungelöst bleiben.

error: Nö, geht nicht.