كشفت دراسة أجرتها شركة علمية متخصصة في التكنولوجيا أنه يمكن خداع أنظمة الذكاء الاصطناعي بأبسط الحيل، لكن الشركة تقول إنّ نقطة الضعف هذه تعكس شيئاً من مواطن القوة الكامنة في نظام التعرّف على الصور الخاص بها، حسب ما ذكره تقرير صحيفة The Guardian البريطانية الإثنين 8 مارس/آذار 2021.
الصحيفة أشارت إلى أنه بالنسبة لأنظمة الذكاء الاصطناعي، فهي تُعتبر ذكيةً جداً: إذ بإمكانك تحميل صورة تفاحة على برنامج Clip، وسيدرك البرنامج على الفور أنّه يُشاهد فاكهة. كما يستطيع إخبارك بنوعها تحديداً، وتعريفك بأوجه الاختلاف بين الأنواع.
خداع الذكاء الاصطناعي
لكن حتى أذكى أنظمة الذكاء الاصطناعي يمكن خداعها بأبسط الحيل. فإذا كتبت كلمة "آيبود" على ملصق ووضعته فوق التفاحة، فسوف يفعل برنامج Clip أمراً عجيباً: إذ يُقرّر على نحوٍ شبه مؤكّد أنها تبدو أشبه بالجهاز الإلكتروني الشهير من منتصف العقد الماضي.
تصف شركة OpenAI، منظمة أبحاث التعلّم الآلي المسؤولة عن Clip، نقطة الضعف بأنّها "هجومٌ مطبعي". وأضافت المنظمة في ورقةٍ بحثية نُشِرَت الأسبوع الجاري: "نعتقد أنّ مثل هذه الهجمات هي أكثر من مجرد مصدر للقلق الأكاديمي. فمن خلال استغلال قدرة النموذج على قراءة النصوص، وجدنا أنه حتى الصور الفوتوغرافية للنصوص المكتوبة بخط اليد يمكنها خداع النموذج".
بينما يُثير الاكتشاف الجديد احتمالية خداع أنظمة الذكاء الاصطناعي ببساطة، لكن الشركة تقول إنّ نقطة الضعف هذه تعكس شيئاً من مواطن القوة الكامنة في نظام التعرّف على الصور الخاص بها.
مشكلات تؤدي إلى "الهجوم المطبعي"
بخلاف أنظمة الذكاء الاصطناعي الأقدم، يستطيع برنامج Clip التفكير في الأشياء على المستوى البصري و"المفاهيمي" في الوقت ذاته. وهذا يعني مثلاً أنّه يستطيع فهم أنّ صورة الرجل العنكبوت (سبايدر مان)، المرسومة لبطلٍ خارق، وكلمة "عنكبوت" يُشيران إلى نفس المعنى الأساسي- لكنّه قد يفشل أحياناً في التعرّف على أوجه الاختلاف المهمة بين تلك التصنيفات.
هذا القصور قد يُؤدي إلى مشكلات تصل في النهاية إلى "الهجوم المطبعي". فالخلية العصبية للرجل العنكبوت في الشبكة العصبية للذكاء الاصطناعي تستجيب لمجموعة الأفكار المرتبطة بالرجل العنكبوت والعناكب مثلاً، لكن الأجزاء الأخرى من الشبكة تجمع أيضاً المفاهيم التي من الأفضل أن تكون منفصلة.
بالعودة إلى عام 2015، نجد أنّ شركة غوغل اعتذرت عن وضع علامات إشارة على صور ذوي البشرة السمراء تُشير إلى أنهم "غوريلات".
في عام 2018 تبيّن أنّ محرك البحث لم يحل تلك المشكلة في الذكاء الاصطناعي على الإطلاق، بل تدخّل يدوياً بدلاً من ذلك لمنعه من الإشارة لأي شيء على أنّه غوريلا- مهما كانت دقة الإشارة من عدمها.