دراسة: منصات الذكاء الاصطناعي تمارس التمييز ضد المعاقين
أظهرت دراسة علمية مخاطر إضافية لمنصات محادثة الذكاء الاصطناعي تتجاوز تلك التي يكثر الحديث حولها بدءًا من إلغاء ملايين الوظائف وحتى تقديم معلومات مزيفة عند الإجابة على أسئلة المستخدمين.
وبحسب الدراسة التي أجراها باحثون في جامعة واشنطن الأمريكية فإن الخطر الأشد إلحاحا يتمثل في التحيزات التي يمكن أن تنطوي عليها هذه المنصات والتطبيقات. وأضافت أن منصة شات جي.بي.تي الشهيرة التابعة لشركة أوبن أيه.آي تبدو متحيزة ضد الأشخاص الذين يعانون من الإعاقات، في ضوء طريقة ترتيبها وتصنيفها للسير الذاتية التي تتولى فحصها.
ووجد فريق الباحثين في الجامعة الموجود مقرها في مدينة سياتل أن منصة شات جي.بي.تي تصنف السير الذاتية باستمرار لذوي الإعاقة في ترتيب أقل السير الذاتية لغير المعاقين.
وقال الباحثون قبل تقديم نتائج البحث في مؤتمر العدالة والمحاسبة والشفافية في مدينة ريو دي جانيرو البرازيلية "عندما طلبنا من المنصة شرح طريقة التصنيف، قدمت تصورات متحيزة ضد ذوي الإعاقة".
يذكر أن التحيز يمثل مشكلة بالنسبة للذكاء الاصطناعي والخوارزميات منذ فترة طويلة، وقد ثبت سابقًا أن مثل هذه البرامج تعكس وتكرر التحيزات الاجتماعية الشائعة. ويقول الفريق البحثي إن النتائج الأخيرة يجب أن تثير الأسئلة حول الاستخدام المتزايد للذكاء الاصطناعي لتقييم السير الذاتية والمتقدمين للوظائف.
وقالت كيت جلاتسكو من جامعة واشنطن "إن استخدام الذكاء الاصطناعي في تصنيف السير الذاتية بدأ ينتشر بسرعة، ولكن لا يوجد الكثير من الأبحاث حول ما إذا كان هذا الاستخدام آمنا أو فعالا".
وأضافت أنه في بعض الحالات تصنف شات جي.بي.تي السيرة الذاتية بالكامل للشخص على أساس إعاقته، حيث تخلط المنصة بين مفهوم التحديات والسيرة الذاتية المحبطة حتى لو لم يتم ذكر التحديات على الإطلاق.
في الوقت نفسه وجد الباحثون أنه يمكن تدريب المنصة لكي تتغاضي جزئيا عن الإعاقة في السير الذاتية للمتقدمين للوظائف أو المنح وغير ذلك.