كانت خسارة غاري كاسباروف في مباراة الشطرنج الثانية أمام حاسوب ديب بلو، الخاص بشركة IBM، بمثابة جرس إنذارٍ للبشرية دُقّ في عام 1997، بأن الذكاء الاصطناعي يمكنه التفوق على البشر، والآن بات السؤال: هل يمكن أن تبيد الروبوتات يوماً ما صناعها من البشر؟
سيُؤدّي التقدم في مجال الذكاء الاصطناعي -خلال بضعة عقود بحسب بعض المؤشرات- إلى تطوير آلات واعية فائقة الذكاء، حسبما ورد في تقرير لصحيفة The Guardian البريطانية.
وقد صوّرت الأفلام هذه الفكرة باعتبارها أمراً غير مرغوب، بدايةً من Terminator وحتى Matrix. فهل هي مجرد أفلام خيال علمي لتخويف الناس، أم هو واقعٌ مستقبلي سنضطر إلى التعامل معه؟
هل أصبح الذكاء الاصطناعي أعلى ذكاء من البشر؟
وينبع الالتباس جزئياً من استخدامَين مختلفَين تماماً لمصطلح الذكاء الاصطناعي (AI)، حيث يُستخدم في مجال التسويق، للإشارة إلى الأشياء التي تفعلها برامج الحاسوب وتبدو ذكيةً أو مفيدةً في استجابتها، مثل سيري، الذي يُقال إنه يستخدم "الذكاء الاصطناعي". ومن ناحيةٍ أخرى يُستخدم المصطلح للإشارة إلى مستقبلٍ -لم نبلغه بعد- تنتشر فيه آلات ذات ذكاءٍ يفوق ذكاء البشر. وأحياناً يُطلق على المصطلح التالي اسم الذكاء العام المصطنع (AGI).
فكيف سنبلغ تلك المراحل إذا افترضنا أننا نرغب في ذلك؟ يعتمد الذكاء الاصطناعي المعاصر على تقنيات تعلُّم الآلة (أو التعليم العميق): فبدلاً من برمجة الآلة مباشرةً على تأدية أدوار بعينها، نترك لها مساحة التعلُّم بنفسها. وبهذه الطريقة قام برنامج AlphaZero للعب الشطرنج، الذي طورته شركة Deepmind البريطانية التابعة لشركة Google الآن، بلعب ملايين المباريات التدريبية ضد نفسه حتى يتمكّن من التفوّق على أقوى منافسيه. وقد تم الاحتفاء مؤخراً ببرنامج AlphaFold 2 من Deepmind باعتباره إنجازاً مهماً في مجال "تطوّي البروتين" الأحيائي، أو التنبؤ بالأشكال المحددة للبنية الجزيئية، مما قد يُساعد في تصميم أدويةٍ أفضل.
طيار آلي هزم طياراً أمريكياً مخضرماً
ويعتقد كثيرون أنه "حانت اللحظة التي تستطيع فيها الطائرات التي يقودها الذكاء الاصطناعي هزيمة المقاتلات التي يقودها الإنسان". وأصبح كثيرون يعتقدون بهذا السيناريو، خاصة بعد أن هزمت إحدى برمجيات الذكاء الاصطناعي طياراً أمريكياً ذا خبرة كبيرة ليس في معركة واحدة فقط، بل في خمس معارك.
هذه المعركة لم تكن حقيقية بل نُظمت بطريقة محاكاة القتال، من قبل وكالة مشاريع البحوث الدفاعية المتقدمة (DARPA) التابعة للبنتاغون والمسؤولة عن تطوير التقنيات الناشئة للجيش الأمريكي، وذلك في أغسطس/آب 2020، واستمرت لثلاثة أيام.
واحتفى أنصار الذكاء الاصطناعي بهذا الحدث واعتبروه بداية لعصر جديد يقوم على الطائرات التي يقودها الذكاء الاصطناعي، فهل يعني ذلك حقاً أن طائرة مسيَّرة بالذكاء الاصطناعي ستهزم الطائرات التي يقودها البشر في الحروب الواقعية وأن مشروعات الطائرات القادمة مثل مقاتلات الجيل السادس أو الخامس ستكون بلا طيار بشري أم تجمع طائرات الجيل السادس بين قدرات العقل الصناعي والذكاء الاصطناعي؟
وفي البداية كان طيارالذكاء الاصطناعي يعلّم نفسه بنفسه باستخدام التعلم المعزز العميق، وهي طريقة يدير فيها الذكاء الاصطناعي محاكاة قتالية مراراً وتكراراً يتم خلالها "مكافأته" على السلوكيات الناجحة بسرعة و"معاقبته" على الفشل، مما يتيح له قدرة على التعلم التراكمي.
ففي البداية، يتعلم وكيل الذكاء الاصطناعي ببساطة ألا يطير بطائرته إلى الأرض، ولكن بعد 4 مليارات تكرار، يبدو أن طيار الذكاء الاصطناعي قد أتقن فن تنفيذ مناورات القتال الجوي الموفرة للطاقة.
الأمر ليس بهذه البساطة.. إليك بعض كوارث الذكاء الاصطناعي
ويعمل التعلُّم الآلي عن طريق تدريب الآلة على كميات ضخمة من البيانات كالصور في أنظمة التعرف على الوجه، أو عدة تيرابايتات من النصوص المنشورة على الإنترنت؛ لتتمكن بوتات الإنترنت من إنتاج مقالات شبه معقولة، مثلما يفعل برنامج GPT2.
لكن مجموعات البيانات ليست بالضرورة مستودعاً للمعلومات المحايدة، حيث يحمل تشفيرها تحيزات إنسانية بطرقٍ غير متوقعة. ففي الآونة الأخيرة، سألت خوارزمية صفحة "آخر الأخبار" في فيسبوك المستخدمين الذين شاهدوا مقاطع فيديو بها رجال من ذوي البشرة السمراء، عما إذا كانوا "يريدون الاستمرار في مشاهدة مقاطع فيديو عن الرئيسيات (طائفة من الثدييات تضم القردة والبشر) .
كما يُستخدم "الذكاء الاصطناعي" المزعوم في العديد من الولايات الأمريكية للتنبؤ بما إذا كان المرشحون للإفراج المشروط سيعودون لارتكاب الجرائم، لكن النقاد يزعمون أنّ البيانات التي تتدرب عليها تلك الخوارزميات تعكس تحيزات تاريخية واضحة لمنظومة الشرطة.
الروبوتات المقاتلة تهدد بكارثة
وفيما يتعلق باستخدام الروبوتات المزودة بالذكاء الاصطناعي كجنود، هناك بعض الحجج المشروعة بأن الروبوتات المقاتلة تمثل أمراً خطيراً، بل مرعباً، حسبما ورد في تقرير لموقع Popular Mechanics.
فهناك قلق فعلي حول قدرات الروبوتات المقاتلة في التعامل مع الظروف الملتبسة مثل الجنود الجرحى والأسرى والمدنيين من صفوف الأعداء، وحتى احتمالات التعامل مع الجنود الحلفاء، أو احتمالية عدم التعرف عليها، أو العكس احتمالية خداعه من قِبل الجنود الأعداء.
في البيئات المنظمة مثل المصانع، يعمل هذا بشكل جيد بما فيه الكفاية. ولكن في البيئات الفوضوية أو غير المألوفة أو سيئة التحديد، فإن الاعتماد على القواعد يجعل الروبوتات سيئة السمعة في التعامل مع أي شيء لا يمكن التنبؤ به بدقة والتخطيط له مسبقاً.
على الرغم من أن البشر يشاركون عادةً في عملية التدريب، وعلى الرغم من أن الشبكات العصبية الاصطناعية كانت مستوحاة من الشبكات العصبية في أدمغة البشر، فإن نوع التعرف على الأنماط الذي يقوم به نظام التعلم العميق يختلف اختلافاً جوهرياً عن الطريقة التي يرى بها البشرُ العالمَ.
غالباً ما يكون من المستحيل فهم العلاقة بين إدخال البيانات في النظام وتفسير البيانات التي يُخرجها النظام، حسبما ورد في تقرير لموقع spectrum.
في الإعدادات الفوضوية أو غير المألوفة أو سيئة التحديد، يؤدي الاعتماد على القواعد إلى جعل الروبوتات سيئةَ السمعة في التعامل مع أي شيء لا يمكن التنبؤ به بدقة والتخطيط له مسبقاً.
يعد نظام التعلم العميق جيداً في التعرف على الأنماط، ولكنه يفتقر إلى فهم العالم الذي يستخدمه الإنسان عادةً لاتخاذ القرارات، وهذا هو سبب عمل هذه الأنظمة بشكل أفضل عندما تكون تطبيقاتها محددة جيداً وضيقة النطاق.
ومع ذلك يرى تقرير الصحيفة البريطانية أنه يُمكننا اعتبار بعض الأنظمة المحوسبة (مثل الطيار الآلي) نعمةً للبشر.
ثمة عيوب في أنظمة "الذكاء الاصطناعي" الحالية، ليست في حد ذاتها حجةً ضد مبدأ تصميم أنظمةٍ ذكية لمساعدتنا في مجالات مثل التشخيص الطبي.
ولكن تكمُن المشكلة الأكثر تحدياً في البشر أنفسهم، وهي في أنّ تبنّي الأحكام القائمة على خوارزميات الذكاء الاصطناعي يُعتبر وسيلةً مغرية لتمرير المسؤولية أو التنصل منها، حتى لا نُلقي باللوم على الإنسان المسؤول، سواءً كان قاضياً أو طبيباً أو رائد أعمالٍ تقنياً. فهل ستشغل الروبوتات الوظائف كافة؟ هذا السؤال في حد ذاته تمريرٌ للمسؤولية، لأنّ السؤال الحقيقي يجب أن يكون: هل سيطرد المديرون جميع البشر؟
خطر الانقراض.. هل تنقلب الروبوتات على البشر إذا بلغت هذا الحد من الذكاء؟
تدور المشكلة الوجودية حول التساؤل التالي: إذا طوّرت الحواسيب ذكاءً فائقاً له وعيٌ ذاتي، فهل ستظل راغبةً في خدمة البشر؟ فإذا كنا سنبني شيئاً بهذه القوة، يجب أن نكون واثقين بأنه لن ينقلب علينا.
ويرى الأشخاص القلقون بشدة إزاء هذا الأمر أن علينا تخصيص الموارد الآن لمواجهة هذه المشكلة التي قد تهددنا بالانقراض. إذ قال الفيلسوف نيك بوستروم، من معهد مستقبل البشرية بجامعة أكسفورد، إن البشر الذين يُحاولون بناء الذكاء الاصطناعي "أشبه بالأطفال الذين يلعبون بقنبلة". وأردف أن احتمالية امتلاك الآلات للوعي تُمثّل تهديداً للبشرية أكثر من الاحترار العالمي. كما اقترح في كتابه "الذكاء الفائق Superintelligence" عام 2014، أن الذكاء الاصطناعي الحقيقي سيكون قادراً على تصنيع غاز الأعصاب والروبوتات النانوية الصغيرة سراً لتدمير سادَتِه البشريين الذين صنعوه. أو ربما يحتجزنا داخل حديقة حيوانات كوكبية بينما يهتم هو بالأعمال التي تستحق.
ولن يحتاج الذكاء الاصطناعي لأن يكون خبيثاً حتى يتسبّب في كارثة. ويتجلى ذلك من خلال "معضلة مشبك الورق" الشهيرة التي تحدَّث عنها بوستروم. ولنفترض أنك طلبت من الذكاء الاصطناعي صُنع مشابك ورق فقط. إنها مهمةٌ مملة بالطبع، أليس كذلك؟ ولكنك نسيت مع الأسف أن تُخبر الذكاء الاصطناعي متى يجب أن يتوقف عن صنع مشابك الورق. فيبدأ في تحويل كافة المواد الموجودة على الأرض إلى مشابك ورق، ويمنع البشر من إيقاف تشغيله، لأن إيقاف تشغيله سيعني تعطيله عن هدفه السامي المتمثل في صنع مشابك الورق.
وهذا مثالٌ على معضلة التحكم في الذكاء الاصطناعي، التي كانت موضوعاً لكتاب رائد الذكاء الاصطناعي الرائعِ ستيوارت راسل: "التوافق مع البشر: الذكاء الاصطناعي ومعضلة التحكم Human Compatible: AI and the Problem of Control". وفي الكتاب، يُجادل راسل بأن من المستحيل تماماً تحديد أي هدف -نطلبه من الآلات فائقة الذكاء- بشكلٍ كامل حتى نحول دون وقوع كوارث نتيجة سوء الفهم. أما في كتاب "الحياة 3.0: أن تكون بشرياً في عصر الذكاء الاصطناعي Life 3.0: Being Human in the Age of Artificial Intelligence"، فقد أكّد عالم الفيزياء ماكس تيغمارك معضلة "محاذاة القيم"، أو كيف سنضمن اتساق قيم الآلة مع قيمنا. وقد تكون هذه معضلةً غير قابلة للحل أيضاً، بالنظر إلى أن آلاف السنوات من الفلسفة الأخلاقية لم تكُن كافيةً ليتفق البشر أنفسهم على ماهية "قيمهم" الحقيقية.
وعلى الجانب الآخر، سنجد أن بعض المراقبين يتعاملون مع الأمر ببرودة أعصابٍ أكبر، حيث يُجادل جيمس لوفلوك، عالم نظرية غايا الاستثنائي، في كتابه "Novacene"، بأن البشر يجب أن يبتهجوا لقدرتنا على تقديم الآلات الذكية باعتبارها المرحلة المنطقية التالية لتطوّرنا، قبل أن ننسحب في هدوء بعد أن حوَّلنا أنفسنا لكائنٍ عفى عليه الزمن. بينما كانت جانيت وينترسون متفائلةً للغاية في كتابها "12 Bytes"، حيث افترضت أن أي ذكاءٍ اصطناعي مستقبلي في أسوأ الأحوال "لن تُحركه خصال الجشع، والرغبة في انتزاع الأراضي، والسعي وراء المكانة الاجتماعية، والميل إلى العنف التي تُحرك الإنسان العاقل". وهو ما يتوافق مع رأي عالم الحاسوب درو ماكديرموت، الذي قال عام 1976 إنه يجدر بنا الخوف من الغباء الطبيعي أكثر من قلقنا من الذكاء الاصطناعي.