Définition
Colonie

C’est un territoire conquis par un pays puissant, et qui subit une domination économique sociale et culturelle.