Colonialismo

De Humanipedia
Ir a la navegación Ir a la búsqueda

(der de colonial, del lat. colonia, y éste de colere, cultivar). Doctrina que tiende a legitimar la dominación política y económica de un territorio o de una nación por el gobierno de un estado extranjero. Suele llamarse así al proceso iniciado en el siglo XV con la conquista, asentamiento y explotación, por parte de Europa, de territorios en América, Oriente y África. España, Portugal, Inglaterra, Francia y los Países Bajos comenzaron las actividades coloniales. Desde 1880 y hasta principios del siglo XX, la búsqueda de nuevos mercados y materias primas provocó el resurgimiento del c. con la repartición de África entre las grandes potencias europeas, sobre todo Inglaterra y Francia Neocolonialismo e Imperialismo.