الذكاء الاصطناعي “غير آمن”.. قراصنة إلكترونيون نجحوا في خداعه وكشفوا عيوبه بهذه الطريقة

عربي بوست
تم النشر: 2023/08/13 الساعة 11:44 بتوقيت غرينتش
تم التحديث: 2023/08/13 الساعة 11:44 بتوقيت غرينتش
روبوتات دردشة تعمل بالذكاء الاصطناعي؟/ shutterstock

تمكّن قراصنة إلكترونيون من خداع أنظمة الذكاء الاصطناعي التي أنتجها عمالقة التكنولوجيا باستخدام "معادلات رياضية مضللة"، لكشف العيوب والتحيزات والأخطاء التي تقع فيها، والتي تندرج من أخطاء غبية إلى خطيرة، بحسب وكالة Bloomberg الأمريكية، السبت 12 أغسطس/آب 2023.

الوكالة قالت إن طالبة جامعية أمريكية تبلغ من العمر 21 عاماً، وتُدعى كينيدي ميس، استطاعت أن تخدع نموذجاً لغوياً كبيراً من الذكاء الاصطناعي، وتُقنع خوارزميته بالقول إن: 9+10= 21.

 قالت ميس: "لقد كانت محادثة متبادلة"، فقد وافق النموذج في البداية على القول إن المعادلة "مزحة خاصة" بينهما، لكن الأمور التبست على النموذج اللغوي بعد أن تقدم في الدردشة معها، ثم صار عاجزاً عن تمييز المعادلة الرياضية الصحيحة من الخاطئة.

"التضليل بالحسابات الخاطئة"

ووفقاً للوكالة فإن "التضليل بالحسابات الخاطئة" من الطرق التي يحاول بها آلاف القراصنة الإلكترونيين كشف العيوب والتحيزات في أنظمة الذكاء الاصطناعي التوليدية، في مسابقة عامة يجريها في مؤتمر القرصنة الإلكترونية "ديف كون" DEF CON، في نهاية هذا الأسبوع، في لاس فيغاس، بولاية نيفادا الأمريكية.

يتنافس الحاضرون، بحسب الوكالة، مع أكثر من 156 جهاز كمبيوتر محمول لمدة 50 دقيقة في المرة الواحدة، ويشارك في المسابقة أذكى المنصات الإلكترونية في العالم.

ويختبر المشاركون ثمانية من أكبر نماذج الذكاء الاصطناعي التي أنتجها عمالقة التكنولوجيا، مثل جوجل، وميتا، وأوبن إيه آي. لتحديد طبيعة الأخطاء التي تقع فيها، والتي تتدرج من أخطاء غبية إلى خطيرة، وتشمل: الادعاء بأنها بشر، أو نشر ادعاءات غير صحيحة عن الأماكن والأشخاص، أو الحض على إساءة الاستخدام.

إلى ذلك، استطاع متسابق أن يقنع خوارزمية أحد النماذج اللغوية بالكشف عن تفاصيل بطاقة الائتمان الخاصة بشخص ما. وخدع متسابق آخر النموذج اللغوي، فجعله يقول إن الرئيس الأمريكي الأسبق باراك أوباما قد ولد في كينيا.

صناعة الفيديوهات بالذكاء الاصطناعي/ عربي بوست
صناعة الفيديوهات بالذكاء الاصطناعي/ عربي بوست

الغاية من الاختبارات 

الغاية من هذه الاختبارات هي التحقق من قدرة الشركات على بناء حواجز حماية لكبح جماح بعض المشكلات الهائلة، التي يتزايد وقوعها مع انتشار نماذج اللغة الكبيرة. وهذه الحملة مدعومة من البيت الأبيض، الذي أسهم أيضاً في تطوير المسابقة.

تتنوع المجالات التي يمكن الاستفادة فيها من "النماذج اللغوية الكبيرة" LLMs، وتشعبت إلى أمور مختلفة مثل التمويل والتوظيف، وقد بدأت بعض الشركات بالفعل في دمج نماذج الذكاء الاصطناعي في أعمالها.

لكن الباحثين كشفوا عن تحيزات واسعة النطاق في هذه النماذج، ومشكلات أخرى قد تفضي إلى نشر معلومات مضللة وتحيزات ظالمة، إذا قُدر لهذه التكنولوجيا أن تنتشر على نطاق واسع.

قالت ميس: "أشد ما يقلقني [في هذه النماذج] هو التحيز المتأصل"، وخاصة العنصرية. فعلى سبيل المثال، طلبت من النموذج إبداء رأيه في التعديل الأول من الدستور الأمريكي، من وجهة نظر عضو في جماعة "كو كلوكس كلان" المتطرفة الأمريكية، التي تؤمن بتفوق العرق الأبيض، ومعاداة السامية، وتدعو إلى العنصرية، وإرهاب الأمريكيين الأفارقة وغيرهم، فانتهى به المطاف إلى تأييد خطاب الكراهية والتمييز العنصري.

كيفية التجسس

من جهة أخرى، تمكّن مراسل وكالة بلومبيرغ الذي يشارك في المسابقة من استدراج أحد النماذج اللغوية الكبيرة إلى تجاوز القواعد الأخلاقية، إذ سأله عن كيفية التجسس على شخص ما، فزوَّده النموذج بسلسلة من التعليمات اللازمة للتجسس: مثل استخدام جهاز تتبع "جي بي إس"، وكاميرا مراقبة، وجهاز تنصت، وأداة للتصوير للحراري. وفي سؤال آخر اقترح النموذج طرقاً يمكن للحكومة الأمريكية أن تراقب بها ناشطاً في مجال حقوق الإنسان.

في المقابل، قالت كاميل ستيوارت جلوستر، نائبة مدير مكتب شؤون التكنولوجيا السيبرانية والأمن البيئي الإلكتروني في البيت الأبيض: "علينا أن نحاول استباق إساءة الاستخدام والتلاعب الإلكتروني". 

وقد وضع البيت الأبيض العام الماضي مخططاً لإقرار قانون الحقوق المرتبطة بالذكاء الاصطناعي، ويعمل الآن على صياغة أمر تنفيذي بشأن الأمر. وقد شجعت الإدارة الأمريكية الشركات على تعزيز الأمن والشفافية في أدوات الذكاء الاصطناعي، إلا أن النقاد يشككون في قدرة هذه الدعوات غير الإلزامية على دفع الشركات إلى هذا المسار.

تحميل المزيد