Topless en France

La France s’est fait connaître comme le pays de la liberté, de l’égalité et de la fraternité. Mais cependant, de plus en plus de femmes semblent abandonner l’une des avancées dans la lutte pour le féminisme, le droit de déshabiller