Respuestas

2014-01-31T05:27:26+01:00
práctica empleada por las naciones o pueblos poderosos para ampliar y mantener su control o influencia sobre naciones o pueblos más débiles. Los estudiosos suelen utilizar este término de forma más específica para referirse únicamente a la expansión económica de los estados capitalistas; otros eruditos lo reservan para caracterizar la expansión de Europa que tuvo lugar después de 1870. Aunque imperialismo y colonialismo tienen un significado similar y pueden aplicarse indistintamente en algunas ocasiones, conviene establecer ciertas diferencias entre ellos. El colonialismo, por lo general, implica un control político oficial que supone la anexión territorial y la pérdida de la soberanía del país colonizado. El imperialismo, sin embargo, tiene un sentido más amplio que remite al control o influencia ejercido sobre otra región, sea o no de forma oficial y directa, e independientemente de que afecte al terreno económico o político