Colonialismo

Da humanipedia.

(der. di coloniale, dal lat. colonia, e questo da colere, coltivare) Dottrina che tende a legittimare il dominio politico ed economico di un territorio o di una nazione esercitato dal governo di uno Stato straniero. Viene così chiamato il processo iniziato nel XV secolo con la conquista, l'insediamento e lo sfruttamento, da parte dell'Europa, di territori in America, in Oriente e in Africa. Furono la Spagna, il Portogallo, l'Inghilterra, la Francia e i Paesi Bassi ad avviare le attività coloniali. A partire dal 1880 e fino agli inizi del XX secolo, la ricerca di nuovi mercati e di materie prime provocò il risorgere del colonialismo con la divisione dell'Africa tra le grandi potenze europee, soprattutto Inghilterra e Francia ([neocolonialismo]], imperialismo).