Depuis quand les femmes ont-elles le droit de travailler ?

1 jour, 1 question
Publié le 11/03/19Modifié le 06/11/19

Sur le même sujet

Depuis quand les femmes ont-elles le droit de travailler ? Les femmes ont toujours travaillé ! Au Moyen Age, elles étaient déjà médecin, agricultrice, brodeuse ou… forgeron ! Aucun métier ne leur était vraiment interdit. Mais, dès la fin du XVe siècle, les choses commencent à changer. On pousse les femmes à rester à la maison. La raison ? Elles sont trop faibles physiquement et elles doivent s’occuper des enfants ! C’est ainsi que, peu à peu, les femmes sont exclues du travail. Bien sûr, il y a toujours des femmes qui ont une activité. Elles sont alors moins payées, voire… pas payées du tout. Ou leur travail n’est pas reconnu.

Le droit des femmes au travail

Au XXe  siècle, l’accès des femmes au travail fait beaucoup de progrès. En 1907, une loi autorise les femmes à toucher un salaire. Mais… seulement si leur mari est d’accord ! Pendant la guerre de 14-18, les femmes remplacent, dans les usines, les hommes partis à la guerre. Ce sont elles qui font tourner le pays ! En 1965, elles obtiennent le droit de travailler sans demander l’accord de leur mari. Puis, en 1972, une loi impose le même salaire pour le même travail, qu’on soit un homme ou une femme. Malgré tout, aujourd’hui, même si elles sont très nombreuses à travailler et à accéder au métier de leur choix, les femmes gagnent en moyenne 25 % de moins par mois. Mais, qui sait ? Quand tu chercheras un travail, cela aura peut-être changé…

Réalisateur : Jacques Azam

Nom de l'auteur : Jacques Azam

Producteur : Milan Presse, France Télévisions

Année de copyright : 2019

Année de production : 2019

Année de diffusion : 2019

Voir plus