lunes, 13 de agosto de 2018

Las mujeres han trabajado siempre.


A finales del siglo XIX y principios del XX, las mujeres se unieron para exigir el derecho a la propiedad privada y a la herencia, el derecho de libre creación de empresas, el derecho a pedir préstamos, el derecho al trabajo, la igualdad salarial y, en definitiva, la posibilidad de mantenerse a sí mismas, de manera que no tuvieran que casarse por dinero, sino que pudieran hacerlo por amor.

Las mujeres no empezaron a trabajar en los años sesenta o durante la Segunda Guerra Mundial. Las mujeres han trabajado siempre. Lo que ha ocurrido en las últimas décadas es que las mujeres han cambiado de trabajo. Han pasado de trabajar en el hogar a ocupar puestos en el mercado laboral, comenzando a recibir una remuneración por su esfuerzo. Han pasado de trabajar como enfermeras, cuidadoras, profesoras y secretarias a competir con los hombres en calidad de médicas, abogadas y biólogas marinas. Esto supone un cambio social y económico enorme; la mitad de la población ha trasladado el grueso de su actividad de la esfera doméstica al mercado.

No hay comentarios:

Publicar un comentario