أخبار عامة

غباء أم تحيز الذكاء الاصطناعي يحول باراك أوباما إلى رجل أبيض

أدخلت صورة منخفضة الدقة لباراك أوباما -أول رئيس أسود للولايات المتحدة- في خوارزمية مصممة لتوليد وجوه منقطة، والنتيجة كانت رجلا أبيض، وتوضح الصورة المعالجة والمنشورة حديثا التحيزات المتأصلة في أبحاث الذكاء الاصطناعي.

ولا يقتصر التحيز على أوباما فقط، فعند استخدام نفس الخوارزمية لإنشاء صور عالية الدقة للممثلة لوسي ليو أو عضوة الكونغرس أوكاسيو كورتيز من مدخلات منخفضة الدقة ستبدو الوجوه الناتجة بيضاء بشكل واضح.

ولكن ما الذي يسبب هذه المخرجات؟ وكيف يحدث تحيز الذكاء الاصطناعي؟

نحتاج أولا إلى معرفة القليل عن التكنولوجيا المستخدمة هنا، فالبرنامج الذي يولد هذه الصور هو خوارزمية تسمى “بلس” (PULSE)، والتي تستخدم تقنية تعرف باسم “ترقية مستوى معالجة البيانات المرئية”.

والترقية هي مثل عملية “التكبير والتحسين” التي نراها في التلفزيون والأفلام، ولكن على عكس هوليود لا يمكن للبرامج الجديدة إنشاء بيانات جديدة من لا شيء، وتوظف تلك البرامج التعلم الآلي من أجل ملء الفراغات وتحويل صورة منخفضة الدقة إلى صورة عالية الدقة.

وللقيام بهذا العمل تحتاج “بلس” إلى خوارزمية أخرى هي “ستايل جان” (StyleGAN)، والتي تم إنشاؤها بواسطة باحثين من نيفادا، وهي الخوارزمية المسؤولة عن تشكيل الوجوه البشرية الواقعية لأشخاص غير موجودين، والتي يمكنك رؤيتها على مواقع مثل (ThisPersonDoesNotExist.com)، وهي وجوه واقعية جدا لدرجة أنها تستخدم غالبا لإنشاء ملفات شخصية وهمية لوسائل التواصل الاجتماعي.

ما تفعله “بلس” هو استخدام ستايل جان “لتخيل” النسخة عالية الدقة من المدخلات المنقطة للصورة سيئة الجودة، وهي لا تفعل ذلك من خلال “تحسين” الصورة الأصلية ذات الدقة المنخفضة، ولكن من خلال إنشاء وجه عالي الدقة جديد تماما، والذي يبدو عندما يتم تقسيمه إلى وحدات البكسل مماثلا للذي أدخله المستخدم.

Ea 8T2NXkAEfH6y

ويقول منشئو “بلس” إنه وعند استخدام الخوارزمية لتوسيع نطاق الصور المنقطة غالبا ما تولد الخوارزمية وجوها ذات ميزات قوقازية.

وكتب منشئو الخوارزمية على موقع “غيت هب” (Github) “يبدو أن بلس تنتج وجوها بيضاء بشكل متكرر أكثر بكثير من وجوه الأشخاص الملونين، ومن المرجح أن هذا التحيز موروث من مجموعة بيانات ستايل جان التي تم تدريبها بشكل متحيز على الرغم من أنه قد تكون هناك عوامل أخرى لا ندركها”.

وبعبارة أخرى، ونظرا لطبيعة البيانات التي تم تدريب “ستايل جان” عليها فعندما تحاول ابتكار وجه يشبه صورة الإدخال المنقطة يتم توجيهها آليا للأشكال البيضاء.

هذه المشكلة شائعة للغاية في التعلم الآلي، وهي أحد أسباب ضعف أداء خوارزميات التعرف على الوجه في حالة الوجوه غير البيضاء والأنثوية، فغالبا ما تنحرف البيانات المستخدمة في تدريب الذكاء الاصطناعي نحو الرجال البيض، وعندما يرى البرنامج أن البيانات ليست في هذه التركيبة السكانية فإن تخميناته تبدو سيئة، فالرجال البيض هم الذين يسيطرون على أبحاث الذكاء الاصطناعي.

ولم يلاحظ الباحثون تحيز مخرجات الخوارزمية قبل أن تصبح الأداة متاحة على نطاق واسع، ويشير هذا إلى ضرورة عدم نشر هذا النوع من التكنولوجيا قبل اختباره بشكل جيد.

الاولى نيوز- متابعة

مقالات ذات صلة

اترك تعليقاً

زر الذهاب إلى الأعلى