Définition
Dystopie
Une dystopie est un récit qui décrit une société effrayante afin de dénoncer vers quelles extrémités certains comportements pourraient conduire notre société.
Une dystopie est un récit qui décrit une société effrayante afin de dénoncer vers quelles extrémités certains comportements pourraient conduire notre société.