عنصرية الذكاء الاصطناعي تتنامى نتيجة تحيزات المجتمع والعلماء يحاولون إيجاد حلول.. ولكن المجتمع هو المشكلة
الأحد, 09 ديسمبر 2018

الأسماء الإفريقية بغيضة والرجل يرتدي فستاناً.. سر تنامي عنصرية الذكاء الاصطناعي، وكيف نعالجها قبل فوات الأوان؟

عربي بوست، ترجمة  

«إنه يرتدي فستاناً جميلاً»، أخطاء محرجة يمكن أن تضعك فيها الترجمة الإلكترونية ،إذا اعتمدت عليها دون تمحيص، والأسوأ ما لاحظه باحثون بشأن تزايد عنصرية الذكاء الاصطناعي.

عنصرية الذكاء الاصطناعي وأخطاؤه المحرجة ما هي إلا انعكاس لانحيازاتنا، حسب ماورد في مقال نشر بمجلة Nature البريطانية.

فالذكاء الاصطناعي أصبح عنصرياً، مثل المجتمعات التي صنعته، ولكن اللافت أنه أحياناً يزايد على عنصرية صانعيه.

عندما تُحرج عنصرية الذكاء الاصطناعي الآسيويين.. إنهم يغلقون أعينهم دوماً

فعندما يُترجِم Google Translate مقالات الأخبار من الإسبانية إلى الإنكليزية، يُشير إلى المؤنث بالمذكر.

وفي كاميرات Nikon، فإن البرمجية المصممة لتنبيه المستخدمين إلى أن الأشخاص الذين يتم تصويرهم يومضون بأعينهم، تعتبر أنَّ عيون الآسيويين تومض دائماً بسبب شكل أعينهم.

أمَّا خوارزمية تضمين الكلمات الشهيرة، التي تُستَخدَم لمعالجة وتحليل كمياتٍ كبيرة من بيانات اللغات الطبيعية، فترى أنَّ الأسماء الأوروبية الأميركية جيدة، بينما أسماء الأفارقة الأميركيين بغيضة.

هذه بعض الأمثلة من حالاتٍ كثيرة كُشِفَ عنها حتى الآن، يمارس فيها الذكاء الصناعي التمييز الممنهج ضد فئاتٍ بعينها.

التحيز في اتخاذ القرار ليس جديداً على الذكاء الصناعي، لكن كما ذكر الكثير من الباحثين، توسُّع نطاق تطبيقات الذكاء الصناعي يجعل من المهم مواجهة هذه المشكلة سريعاً.

ويعني اتساع نطاق المشكلة أنَّنا نحتاج حلولاً منهجية.

جيمس جو، الأستاذ المساعد في مجال علوم الكمبيوتر، ولوندا شيبنجر الأستاذة في تاريخ العلوم يعرضان في مقالهما الذي نشر بمجلة Nature بعضاً من الاستراتيجيات الممكنة لحل مشكلة انحيازات الذكاء الاصطناعي.

المشكلة ليست في الذكاء الاصطناعي إنما في البيانات المتحيزة

في الصناعة والأوساط الأكاديمية، يحظى علماء الحاسوب بالمجد (في وسائل الإعلام المنشورة والتغطية الإعلامية) لتدريبهم خوارزمياتٍ أكثر تطوراً.

لكن لا تحظى طريقة جمع البيانات ومعالجتها وتصنيفها بنفس القدر من الاهتمام.

وتُعد بيانات التي تجمع لتدريب البرمجيات من الدوافع الأساسية لتحيز الذكاء الصناعي.

والسبب أن معظم مهام تعلم الآلة تُدرَّب بناء على مجموعاتٍ كبيرة ومُفصَّلة من البيانات.

على سبيل المثال، يتم تدريب برمجيات الذكاء الاصطناعي على تصنيف 14 مليون صورة مُعنوَنة موجودة لدى شبكة ImageNet.

وبالتالي أي إنحياز في جمع بيانات التدريب قد يؤثر على آلاف إن لم يكن ملايين الصور.

وفي معالجة اللغات الطبيعية، تُدرَّب الخوارزميات التقليدية على نصوص تتكون من مليارات الكلمات.

ويبني الباحثون عادةً هذه البيانات باستخراجها من المواقع الإلكترونية، مثل Google Images وGoogle News، باستعمال مصطلحات بحث محدَّدة، أو عن طريق تجميع معلوماتٍ يسهل الوصول إليها من مصادر مثل Wikipedia.

ثم غالباً ما يفسِّر هذه البيانات إما طلاب خريجون أو عن طريق منصات التعهيد الجماعي مثل Amazon Mechanical Turk.(منصات التعهيد هي مجموعات خارجية تتعاقد مع المؤسسة صاحبة المشروع على عمل معين مثل إدخال البيانات).

يمكن لهذه الوسائل بغير عمدٍ إنتاج بياناتٍ تحتوي على تحيزات جنسية وعرقية وثقافية.

أي أنها تخلق عنصرية الذكاء الاصطناعي دون قصد.

ولكن لماذا تظلم البيانات الهند والصين؟

في المعتاد، هناك طوائف يُبالغ في تمثيلها، وطوائف لا تنال تمثيلاً كافياً.

فأكثر من 45% من بيانات شبكة ImageNet، للصور، تأتي من الولايات المتحدة، وهي موطن 4% فقط من سكان العالم.

وعلى النقيض 3% فقط من بيانات ImageNet مصدرها الصين والهند مجتمعتين، مع أنَّهما تمثلان 36% من سكان العالم.

إذن يفسِّر هذا النقص في التنوع الجغرافي جزئياً سبب عنونة خوارزميات الرؤية الحاسوبية صورةً لعروسٍ أميركية تقليدية ترتدي الأبيض بـ»عروس»، و»فستان»، و»زفاف»، بينما تعنون صورةً لعروسٍ من شمال الهند بـ»فن أداء» و»زي حفلات».

في الطب، يمكن أن تكون مؤشرات التعلم الآلي عرضةً لمجموعات بيانات التدريب المتحيزة، بسبب التكاليف الباهظة على وجه الخصوص لإنتاج البيانات وعنونتها.

في العام الماضي 2017، استعمل الباحثون التعلم المتعمق للتعرف على سرطان الجلد من الصور الفوتوغرافية.

ودرَّبوا نموذجهم على مجموعة بيانات من 129450 صورة، جُمع 60% منها من على Google Images.

لكنَّ أقل من 5% من هذه الصور هي لأفرادٍ داكني البشرة، وبالتالي لم تُدرَّب الخوارزمية على داكني البشرة بشكل كاف.

لذا يمكن لأداء المصنِّف أن يتباين كثيراً من طائفةٍ إلى أخرى، وأن تصبح فرص تعرفه على المرض لدى ذوي البشرة أقل.

Artificial Intelligence is only as good as the patterns we teach it. To illustrate the sensitivity of AI systems, we built an AI engine that deduced synonyms from news articles published by different types of news organizations.Watch the final episode in the Breaking the Black Box series about AI and then go see how it works in our latest interactive: http://propub.li/2e7gVlj

Gepostet von ProPublica am Mittwoch, 19. Oktober 2016

 

ولكن هناك تحيزات تعود إلى الخوارزميات نفسها

تحاول برامج تعلم الآلة النموذجية الوصول إلى الحد الأقصى من الدقة الإجمالية للتنبؤ في بيانات التدريب.

وبالتالي إذا ظهرت جماعةٌ بعينها من الناس أكثر من الجماعات الأخرى في بيانات التدريب، فسوف يحاول البرنامج زيادة الدقة في معالجة صور هؤلاء الأفراد قدر الإمكان، لأنَّ هذا يزيد من الدقة الإجمالية.

ويقيِّم علماء الحاسوب الخوارزميات بناء  على مجموعات بيانات «اختبارية»، لكنَّها تكون عادةً عيناتٍ فرعيةٍ عشوائية لمجموعة التدريبات الأصلية، ولذا من المرجح أن تحتوي على نفس التحيزات.

ولهذا السبب يخاطب Google Translate الأنثى كذكر

ولكن المشكلة أنه يمكن للخوارزميات المعيبة تضخيم التحيزات عبر حلقات التغذية المرتدة (تُعلم الذكاء الاصطناعي من خلال الممارسة الفعلية).

خذ مثلاً الأنظمة المُدرّبة من خلال الإحصاء مثل Google Translate، التي تعتبر الضمائر المذكرة هي الافتراضية.

الدافع وراء هذا التنميط هو أنَّ نسبة الضمائر المذكرة إلى المؤنثة في النصوص الإنكليزية هي 2 إلى 1.

والأسوأ أنَّه في كل مرة يستخدم فيها برنامج ترجمة «هو قال» افتراضياً، يزيد هذا من التكرار النسبي للضمير المذكر على الإنترنت، مما قد يبطل التقدمات التي تحققت بصعوبة في مجال المساواة.

كيف يمكن إذاً إصلاح ما أفسده المجتمع؟

غالباً ما تعكس التحيزات في البيانات اختلالاً عميقاً وخفياً في التوازن في  المؤسسات وعلاقات السلطة الاجتماعية.

على سبيل المثال، تبدو موسوعة المعرفة المشاعية Wikipedia مصدراً ثرياً ومتنوعاً للبيانات.

لكنَّ أقل من 18٪ من مواضيع السير الذاتية في الموقع عن النساء.

وتحوي المقالات عن النساء روابط إلى مقالاتٍ عن الرجال أكثر من العكس، مما يزيد احتمال ظهور الرجال في محركات البحث. ويُذكَر فيها أيضاً الشركاء الرومانسيون والعائلات بنسبةٍ أكبر.

لذا، يجب إضفاء العناية التقنية والوعي الاجتماعي على بناء مجموعات بيانات التدريب.

بالتحديد، يجب اتخاذ خطواتٍ لضمان أن تكون مجموعات البيانات تعدديةً، ولا تظلم طوائف بعينها في التمثيل.

يعني هذا تجاوز التصنيفات السهلة مثل «امرأة/رجل» و»أسود/أبيض» التي تفشل في تصوير الطبقات والعلاقات المتشابكة للهويات الجنسية والعرقية.

البداية من عملية جمع البيانات

بدأ بعض الباحثين بالفعل العمل على هذا، إذ يسعى البعض لجعل الخوارزميات عادلة.

فمثلاً، كشف علماء الحاسوب مؤخراً أنَّ الأنظمة التجارية للتعرف على الأوجه تخطئ في تصنيف الجنس بنسبٍة أعلى بكثير حين تنظر إلى النساء داكنات البشرة مقارنةً بالرجال فاتحي البشرة، بنسبة خطأ تبلغ 35% مقابل 0.8% للرجال فاتحي البشرة.

لمعالجة هذا، جمع الباحثون مجموعة بيانات صور جديدة تتألف من 1270 فرداً، مُوَزَّعين بالتساوي بين الأجناس والأعراق.

وينبغي لإعادة تدريب خوارزميات تصنيف الأوجه الموجودة وتنقيحها لكي تُحَسِّن من الدقة وتقلل من عنصرية الذكاء الاصطناعي.

وللمساعدة على التعرف على مصادر التحيز، يرى الكاتبان ضرورة أن ُيعنِون الشارحون محتوى مجموعات بيانات التدريب عنونةً ممنهجة بواصفات بيانات موحدة.

وينبغي لكل مجموعة بيانات تدريبية أن تصاحبها معلوماتٌ عن كيفية جمع البيانات وشرحها.

وإذا احتوت البيانات على معلوماتٍ عن الناس، فينبغي أن يتوافر موجز إحصائي عن الجغرافية، والجنس، والعرق والمعلومات الديموغرافية الأخرى.

لاتحاسبوا الخوارزميات وحدها، بل يجب تحديد خصائص جامعي البيانات

إذا جرت عنونة البيانات من خلال التعهيد الجماعي.

فينبغي ذكر معلوماتٍ أساسية عن الجماعات المشاركة في عملية التعهيد هذه (المجموعة التي تتولى إدخال البيانات).

كما يجب ذكر الطلبات والتعليمات المحددة التي أُعطيت لهم لجماعات التعهيد.

وبقدر الإمكان، ينبغي لجامعي البيانات تقديم تعريفاتٍ دقيقة عن الواصفات المرتبطة بالبيانات.

ولكن يظل الأهم هو جعل الخوارزميات تكافح العنصرية

وأخيراً، يجدر بعلماء الحاسوب السعي إلى تطوير خوارزمياتٍ مضادة أكثر للتحيزات البشرية في البيانات.

ويجري الآن البحث عن أساليب متنوعة لتقليل عنصرية الذكاء الاصطناعي وتحيزاته. 

يتضمن أحدهانموذج لتعليم الآلة بطريقة تضمن تحقيق أداء عادل بين مختلف الفئات السكانية الفرعية.

ويتضمن أحد الأساليب المرتبطة بهذا تغيير خوارزمية التعلم للحد من اعتمادها على الصفات الحساسة، مثل العرق، والجنس، والدخل، وأي معلوماتٍ مقترنة بهذه الخصائص.

وهذه الأساليب الناشئة للقضاء على التحيز واعدة، لكنَّها تحتاج إلى التنقيح والتقييم في العالم الواقعي.

لكن من التحديات المفتوحة في وجه هذه الأنواع من الحلول هو أنَّ العرق والجنس والمعلومات الأخرى ذات الصلة يتعين تسجيلها بدقة.

ولمكافحة عنصرية الذكاء الاصطناعي، يجب أن يتدرب مصممو الخوارزميات؛ على كيف استنباط أية أصناف من التحيز عليهم تجنبها.

ويجب تعليم الآلة مراجعة تحيزات البشر

ومن الأساليب المُكَمِّلة لمكافحة عنصرية الذكاء الاصطناعي بشكل منهجي، هو استخدام تعلم الآلة نفسه للتعرف على التحيز وتقديره في الخوارزميات والبيانات التي جمعها البشر.

ويُطلق على هذا النهج «مراجعة الذكاء الصناعي».

إذ أن المراجِع هو خوارزمية تفحص فحصاً ممنهجاً النموذج الأصلي لتعلم الآلة للتعرف على التحيزات في النموذج وبيانات التدريب.

من الأمثلة على هذا عمل كاتبي المقال الحديث باستخدام وسيلة رائجة لتعلم الآلة تُدعى تضمين الكلمات، لتقدير الصور النمطية التاريخية في الولايات المتحدة، وتُصوِّر العلاقات التناظرية، مثل الرابط بين كلمتي «رجل» و»ملك» وكلمتي «امرأة» و»ملكة».

ويقول كاتبا التقرير لقد طوَّرنا خوارزمية المراجعة للذكاء الصناعي لتكشف التحيزات لصالح الرجل» بالربط بينه وبين مهن مرموقة بينما يتم الربط بين النساء وبين مهن أقل.

على سبيل المثال، فقد تبين أن الرابط بين كلمتَي «رجل» و»طبيب» يقابله رابط بين كلمتي «امرأة» و»ممرضة»، والرابط بين «رجل» و»مبرمج حاسوبي» يقابله رابط بين «امرأة» و»ربة منزل».

وإذا كشف المراجع الآلي عن القوالب الجاهزة في تضمين الكلمات وفي البيانات النصية الأصلية، فإنه من الممكن الحد من التحيز بتعديل هذه الروابط المنحازة وتقلل عنصرية الذكاء الاصطناعي.

كما يمكن القضاء على عنصرية الذكاء الاصطناعي والتحيزات لدى الخوارزميات المتدربة على النصوص التاريخية.

فمثلاً، أظهرت البيانات النصية في الولايات المتحدة من Google Books منذ 1910 حتى 1990 آراءً صادمةً ومتغيرةً تجاه الآسيويين الأميركيين.

فقد تبدل وصف هذه الطائفة من «وحشية» و»همجية» في 1910 إلى «مكبوتة» و»حساسة» في 1990. بعد ظهور تحولات مفاجئة في توصيفها بعد الحرب العالمية الثانية وموجات الهجرة في الثمانينيات.

العدالة الإلكترونية المبتغاة تحتاج لمراجعة مجتمعاتنا.. فلا تلومن المبرمجين وحدهم

في ظل سعي علماء الحاسوب، وعلماء الأخلاق، والعلماء الاجتماعيين وآخرين إلى تحسين عدالة البيانات ومكافحة عنصرية الذكاء الاصطناعي وانحيازاته، علينا جميعاً التفكير في مفاهيم لائقة للعدالة.

والسؤال هل ينبغي أن تُمثِّل البيانات العالم كما هو، أم يجب أن تمثل عالماً يطمح فيه الكثيرون؟ .

وهل ينبغي لأدوات الذكاء الصناعي المستخدَمة في تقييم المرشحين المحتملين للوظائف أن تقيم الموهبة، أم تعطي أولوية لاحتمال تأقلم الشخص جيداً مع بيئة العمل؟.

وفي محاولتنا لمكافحة عنصرية الذكاء الاصطناعي وانحيازاته، علينا تحديد على من تقع مسؤولية تحديد مفاهيم للعدالة التي ينبغي إعطاؤها الأولوية؟

لمخاطبة هذه التساؤلات وتقييم التأثير الأوسع لبيانات التدريب والخوارزميات، على باحثي تعلم الآلة التفاعل مع العلماء الاجتماعيين والخبراء في الإنسانيات والفئات الجنسانية والطب والبيئة والقانون.

وهناك جهود عديدة بالفعل للوصول إلى هذا التعاون، ومن ضمنها مبادرة «Human-Centered AI» أو «الذكاء الصناعي المرتكز على البشر» في جامعة ستانفورد في كاليفورنيا. ويجب أن يبدأ هذا التفاعل في مرحلة ما قبل التخرج. على الطلاب دراسة السياق الاجتماعي للذكاء الصناعي ريثما يتعلمون كيفية عمل الخوارزميات.

تُشكِّل الأدوات والبرامج والعمليات سلوكياتنا وتصرفاتنا وثقافتنا. وتتبدل الاقتصادات والمجتمعات بفعل الذكاء الصناعي، فتغيرت أنماط تواصلنا وعملنا وأُعيد تشكيل نُظم حكمنا وسياساتنا. لزمنٍ طويل عانت مجتمعاتنا من عدم المساواة. فلا يجدر بالذكاء الصناعي أن يحافظ عليها أو حتى يؤدي إلى استفحالها عمداً.

اقتراح تصحيح
عربي بوست، ترجمة  
لماذا تتعطل أحرف بعض حواسيب Mac؟.. تعرف على أسباب فوضى الـNum Lock القادمة من عصر الآلات الحاسبة
اقرأ المزيد
Generated with Avocode.Shape 770
اقتراح تصحيح
الأسماء الإفريقية بغيضة والرجل يرتدي فستاناً.. سر تنامي عنصرية الذكاء الاصطناعي، وكيف نعالجها قبل فوات الأوان؟