برنامج إنتاج صور الذكاء الاصطناعي التابع لـ”ميتا” متهم بـ”العنصرية”.. فشل في تصور أزواج من أعراق مختلفة 

عربي بوست
تم النشر: 2024/04/06 الساعة 17:59 بتوقيت غرينتش
تم التحديث: 2024/04/06 الساعة 17:59 بتوقيت غرينتش
شركة ميتا - رويترز

تعرض برنامج الصور القائم على الذكاء الاصطناعي، التابع لشركة ميتا، لانتقاداتٍ، بسبب فشله في تصور الأزواج من أعراق مختلفة، ليصبح أحدث أداة تقنية متهمة بالتحيز العنصري، بحسب صحيفة The Times البريطانية، الجمعة 5 أبريل/نيسان 2024.

واشتكى المستخدمون من فشل البرنامج مراراً في إنشاء صور لرجال آسيويين مع نساءٍ بيضاوات، والعكس أيضاً، رغم أن مؤسس الشركة الأبيض، مارك زوكربيرغ، متزوج بامرأة أمريكية صينية، وهي بريسيلا تشان.

مع ذلك، قال مستخدمو المولِّد التابع لـ"ميتا"، والذي دُرِّبَ على أكثر من مليار صورة منشورة علناً على منصتيّ فيسبوك وإنستغرام، إن محاولاتهم غالباً ما أنتجت صوراً لرجال آسيويين مع نساء آسيويات. 

مارك زوكربيرغ الرئيس التنفيذي لشركة ميتا (فيسبوك سابقاً)- رويترز
مارك زوكربيرغ الرئيس التنفيذي لشركة ميتا (فيسبوك سابقاً)- رويترز

كما أدت المطالبة المكتوبة لـ"زوجين من عرقين مختلفين" إلى الرد: "لا يمكن إنشاء هذه الصورة. يرجى تجربة شيء آخر". 

وحذرت شركة ميتا، سابقاً، من أن برامج الذكاء الاصطناعي الخاصة بها "قد تسفر عن مخرجاتٍ غير دقيقة أو غير مناسبة"، بينما زعمت أنها تتخذ خطوات لتقليل التحيز المحتمل. 

أدت مشكلات مماثلة إلى قيام جوجل بتعليق أداة إنشاء الصور "جيمني" الخاصة بها. وكان هناك رد فعل عنيف على إنشاء صور "متنوعة" غير دقيقة تاريخياً، وضمن ذلك صور النازيين السود وبابا الفاتيكان امرأة وليس رجلاً. 

فيما ادعى المستخدمون أن أداة الذكاء الاصطناعي كانت تعزف عن إنشاء صور للأشخاص البيض، واعترف برابهاكار راغافان، أحد المسؤولين التنفيذيين في جوجل، لاحقاً، بأن نموذج اللغة كان "حساساً" جداً للمطالبات المكتوبة التي تلقاها. 

تحيز واضح

وكُشِفَ عن التحيز الواضح في أداة توليد الصور بالذكاء الاصطناعي التابعة لـ"ميتا"، والمتوافرة فقط في الولايات المتحدة، من قبل ميا ساتو، الكاتبة بموقع The Verge الأمريكي.

 قالت ميا إنها حاولت "عشرات المرات" إنشاء صورة باستخدام مطالبات مثل "امرأة آسيوية وزوج قوقازي"، لكنها لم تتلق سوى إجابة واحدة دقيقة. 

وكتبت: "كان النظام يميل بشدة أيضاً إلى الصور النمطية، مثل إضافة عناصر تشبه البندي (النقطة بين الحاجبين) والساري (الزي النسائي الهندي) إلى نساء جنوب آسيا التي أنشأها دون أن أطلب ذلك". 

ومع ذلك، أشارت ميا إلى أن أداء الأداة كان أفضل عندما وُجِّهَت إلى أشخاصٍ من "جنوب آسيا" وكذلك إلى "امرأة آسيوية لديها صديق أمريكي من أصل أفريقي".

وتكرَّرت النتائج في تجربة أجرتها شبكة CNN الأمريكية، أشارت فيها إلى أن الأداة لم تفهم طلب "زوجين من عرقين مختلفين". 

وارتفعت نسبة الزيجات الجديدة بين الأعراق في الولايات المتحدة إلى 19% في عام 2019، وفقاً لمركز بيو للأبحاث.

ردَّ بعض المستخدمين، على منصة إكس (تويتر سابقاً)، باتهام "ميتا" بالعنصرية، في حين اقترح آخرون أن أداةً مختلفةً كان ستوفر صوراً دقيقة. وردَّ العديد منهم بنشر صورة لمؤسس الشركة وزوجته، التي وُلِدَت في ماساتشوستس لأبوين مهاجرين صينيين من فيتنام. 

تحميل المزيد