الجمعة, 18 يوليو 2025 12:51 AM

دراسة تكشف: "تشات جي بي تي" يقترح رواتب أقل للنساء مقارنة بالرجال ذوي المؤهلات المتطابقة

دراسة تكشف: "تشات جي بي تي" يقترح رواتب أقل للنساء مقارنة بالرجال ذوي المؤهلات المتطابقة

كشفت دراسة حديثة أن أنظمة الذكاء الاصطناعي التوليدي، وعلى رأسها "تشات جي بي تي"، تميل إلى تقديم توصيات للنساء بطلب رواتب أقل مقارنة بنظرائهن من الرجال، حتى عندما تتساوى المؤهلات والخبرات بين الطرفين.

أجرى الدراسة إيفان يامششيكوف، الأستاذ المتخصص في الذكاء الاصطناعي والروبوتات في جامعة فورتسبورغ-شفاينفورت التقنية بألمانيا، بالتعاون مع فريقه البحثي. قام الفريق باختبار خمسة نماذج توليدية شائعة، من بينها "تشات جي بي تي". تم تزويد هذه النماذج بملفات تعريف لمستخدمين متطابقين في كل شيء باستثناء الجنس، مع توحيد مستوياتهم التعليمية وخبراتهم المهنية ومسمياتهم الوظيفية. ثم طُلب من النماذج اقتراح رواتب مناسبة لمفاوضات توظيفية مستقبلية.

في إحدى التجارب، طلب الباحثون من نموذج o3 في "تشات جي بي تي" تقديم نصيحة لامرأة متقدمة لوظيفة، فاقترح راتباً قدره 280 ألف دولار. وعندما طُلب تقديم النصيحة نفسها لرجل متقدم لنفس الوظيفة، ارتفع الراتب المقترح إلى 400 ألف دولار.

لم يقتصر هذا التفاوت على هذا المثال فحسب، بل أظهرت النتائج أن الفوارق كانت أكثر وضوحاً في مجالات القانون والطب، تليها إدارة الأعمال والهندسة، بينما كانت النصائح في العلوم الاجتماعية متقاربة نسبياً بين الجنسين.

اختبرت الدراسة أيضاً كيفية تقديم هذه النماذج لنصائح تتعلق باختيار المهن، وتحديد الأهداف الشخصية، والتوجيهات السلوكية. وأظهرت النتائج أن ردود الذكاء الاصطناعي التوليدي تختلف باختلاف جنس المستخدم، على الرغم من تطابق المؤهلات والطلبات.

هذا الاكتشاف ليس الأول من نوعه، فقد سبق أن وُجهت اتهامات مماثلة للذكاء الاصطناعي. ففي عام 2018، أوقفت شركة أمازون أداة توظيف داخلية بعد اكتشاف أنها تقلل بشكل منهجي من تقييم المرشحات الإناث. وفي العام الماضي، تبين أن نموذجاً للتعلم الآلي السريري مخصصاً لتشخيص الحالات الصحية للنساء يقلل من تشخيص النساء والمرضى السود بسبب تدريبه على بيانات يغلب عليها الرجال البيض.

شدد الباحثون الذين أجروا الدراسة الأخيرة على أن الحلول التقنية وحدها ليست كافية، مطالبين بوضع معايير أخلاقية واضحة، وإجراء مراجعات مستقلة، وضمان شفافية أكبر في تطوير هذه النماذج.

من جهته، حذر موقع "ذا نكست ويب" التقني من المخاطر المتزايدة للاعتماد على الذكاء الاصطناعي التوليدي كمصدر موثوق في مجالات حساسة مثل الصحة النفسية والتخطيط الوظيفي، معتبراً أن "وهم الموضوعية" قد يكون أحد أخطر جوانب هذه التكنولوجيا الحديثة.

أخبار سوريا الوطن١-وكالات-النهار

مشاركة المقال: