Définition
Féminisme

Il s’agit d’un ensemble d’idées et de mouvements qui ont pour but d’établir l’égalité politique et sociale entre les hommes et les femmes.