حقوق زنان در غرب

حقوق زنان در غرب به مجموعه‌ای از حق‌ها و آزادی‌هایی اطلاق می‌شود که برای زنان در کشور‌های غربی تضمین شده است. این حقوق شامل برابری حقوق و فرصت‌ها، آزادی در انتخاب شغل و تحصیل، حق آزادی بیان و حق بهره‌مندی از خدمات بهداشتی و درمانی می‌شود. در غرب، بسیاری از کشورها قوانین...