حقوق زنان در غرب
حقوق زنان در غرب به مجموعهای از حقها و آزادیهایی اطلاق میشود که برای زنان در کشورهای غربی تضمین شده است. این حقوق شامل برابری حقوق و فرصتها، آزادی در انتخاب شغل و تحصیل، حق آزادی بیان و حق بهرهمندی از خدمات بهداشتی و درمانی میشود. در غرب، بسیاری از کشورها قوانین... ویدیوهای مرتبط
ویدیوهای جدید