"هل يجب أن نتمتع بأتمتة جميع الوظائف، بما في ذلك الوظائف التي كنا نظنها مستدامة؟ هل يجب أن نطور عقولاً غير بشرية قد تفوق عدد البشر في النهاية، وتتفوق علينا بذكائها، وتحل محلنا؟ هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟".
تم طرح هذه الأسئلة وغيرها الشهر الماضي في رسالة مفتوحة من معهد Future of Life Institute، وهي منظمة أمريكية غير حكومية، بحسب مجلة Economist البريطانية، دعت إلى وقف إنشاء أكثر أشكال الذكاء الاصطناعي تقدماً (AI) لمدة 6 أشهر، ووقعها شخصيات بارزة في مجال التكنولوجيا بمن فيهم ذلك إيلون ماسك.
وتقول المجلة البريطانية إن ذلك هو المثال الأبرز حتى الآن على مدى سرعة التقدم في الذكاء الاصطناعي في إثارة القلق بشأن الأخطار المحتملة للتكنولوجيا على البشرية.
الذكاء الاصطناعي.. كل شيء سيتغير
على وجه الخصوص، فاجأت "نماذج اللغات الكبيرة" الجديدة ( llm ) – النوع الذي يدعم Chat gpt، وهو روبوت محادثة تم إنشاؤه بواسطة شركة Open ai، حتى المبدعين لديهم بمواهبهم غير المتوقعة حيث تم توسيع نطاقهم. تتضمن هذه القدرات "الناشئة" كل شيء بدءاً من حل الألغاز المنطقية وكتابة كود الكمبيوتر إلى تحديد الأفلام بدءاً من ملخصات الحبكة المكتوبة بالرموز التعبيرية.
ستعمل هذه النماذج بحسب الإيكونومست على تغيير علاقة البشر بأجهزة الكمبيوتر والمعرفة وحتى مع أنفسهم. يجادل أنصار الذكاء الاصطناعي بشأن قدرته على حل المشكلات الكبيرة من خلال تطوير عقاقير جديدة، أو تصميم مواد جديدة للمساعدة في مكافحة تغير المناخ، أو حل تعقيدات قوة الاندماج.
بالنسبة للآخرين، فإن حقيقة أن قدرات الذكاء الاصطناعي تتفوق بالفعل على فهم المبدعين تخاطر بإحياء سيناريو كارثة الخيال العلمي للآلة التي تتفوق على مخترعها، وغالباً ما يكون ذلك مع عواقب وخيمة.
هذا المزيج الفقاعي من الإثارة والخوف يجعل من الصعب الموازنة بين الفرص والمخاطر. ولكن يمكن تعلم الدروس من الصناعات الأخرى ومن التحولات التكنولوجية السابقة. إذاً ما الذي تغير لجعل الذكاء الاصطناعي أكثر قدرة؟ وكيف يجب أن نقلق؟ وماذا يجب أن تفعل الحكومات؟
بماذا تخبرنا الموجة الجديدة الأكثر سرعة وتقدماً من الذكاء الاصطناعي؟
تقول المجلة البريطانية، إن الموجة الأولى من أنظمة الذكاء الاصطناعي الحديثة، التي ظهرت قبل عقد من الزمن، اعتمدت على بيانات التدريب المصنفة بعناية. بمجرد تعرضها لعدد كافٍ من الأمثلة المصنفة، يمكنها تعلم القيام بأشياء مثل التعرف على الصور أو نسخ الكلام. لا تتطلب أنظمة اليوم تصنيفاً مسبقاً، ونتيجة لذلك يمكن تدريبها باستخدام مجموعات بيانات أكبر بكثير مأخوذة من مصادر عبر الإنترنت. يمكن تدريب "نماذج اللغات الكبيرة"، في الواقع، على الإنترنت بالكامل – وهو ما يفسر قدرات هذه البرامج، الجيدة والسيئة.
أصبحت هذه القدرات واضحة للجمهور على نطاق أوسع عندما تم إصدار Chat gpt في نوفمبر/تشرين الثاني 2022. حيث استخدمه مليون شخص في غضون أسبوع؛ و 100 مليون شخص في غضون شهرين. وسرعان ما تم استخدامه لتوليد المقالات المدرسية وخطب الزفاف وكتابة التقارير الصحفية. ودفعت شعبية Chat gpt وخطوة شركة Microsoft لدمجها في Bing، محرك البحث الخاص بها، الشركات المنافسة إلى إطلاق برامج الدردشة الآلية أيضاً.
أسفرت بعض هذه النتائج عن نتائج غريبة، حيث اقترح Bing Chat على أحد الصحفيين أن يترك زوجته، ليتهم أستاذ القانون Chat gpt بالتشهير. وتُنتج llm أو "نماذج اللغات الكبيرة" إجابات تحتوي على زوال الحقيقة، ولكنها غالباً ما تحتوي على أخطاء واقعية أو تلفيقات صريحة. ومع ذلك، بدأت شركة Microsoft و Google وشركات التكنولوجيا الأخرى في دمج llm في منتجاتها، لمساعدة المستخدمين على إنشاء المستندات وأداء مهام أخرى.
أثار التسارع الأخير في كل من قوة أنظمة الذكاء الاصطناعي ووضوحها، والوعي المتزايد بقدراتها وعيوبها، مخاوف من أن التكنولوجيا تتقدم الآن بسرعة بحيث لا يمكن السيطرة عليها بأمان. ومن هنا جاءت الدعوة إلى التوقف، والقلق المتزايد من أن الذكاء الاصطناعي يمكن أن يهدد ليس فقط الوظائف والدقة الواقعية والسمعة، ولكن وجود البشرية نفسها.
هل يمكن للذكاء الاصطناعي سرقة وظائفنا؟
يعود الخوف من سرقة الآلات للوظائف إلى قرون. ولكن حتى الآن خلقت التكنولوجيا الجديدة وظائف جديدة لتحل محل تلك التي دمرتها. وتميل الآلات إلى أن تكون قادرة على أداء بعض المهام، وليس غيرها، مما يؤدي إلى زيادة الطلب على الأشخاص الذين يمكنهم القيام بالمهام التي لا تستطيع الآلات القيام بها.
لكن هل يمكن أن تكون هذه المرة مختلفة؟ لا يمكن استبعاد حدوث خلل مفاجئ في أسواق العمل، حتى لو لم يكن هناك أي مؤشر على حدوثه. وتميل التكنولوجيا السابقة إلى استبدال المهام غير الماهرة، لكن llm يمكن أن تؤدي بعض مهام ذوي الياقات البيضاء، مثل تلخيص المستندات وكتابة التعليمات البرمجية.
كانت درجة الخطر الوجودي الذي يشكله الذكاء الاصطناعي موضع نقاش ساخن. الخبراء منقسمون. في دراسة استقصائية لباحثي الذكاء الاصطناعي أجريت في عام 2022، اعتقد 48٪ أن هناك احتمالاً بنسبة 10٪ على الأقل أن يكون تأثير الذكاء الاصطناعي "سيئاً للغاية (مثل الانقراض البشري)".
لكن 25٪ قالوا إن الخطر كان 0٪. قدر الباحث الوسيط الخطر عند 5٪. الكابوس هو أن الذكاء الاصطناعي المتقدم يسبب ضرراً على نطاق واسع، من خلال صنع السموم أو الفيروسات، أو إقناع البشر بارتكاب أعمال إرهابية. لا يحتاج الأمر إلى نوايا شريرة: يخشى الباحثون من أن يكون للذكاء الاصطناعي في المستقبل أهداف لا تتماشى مع أهداف صانعيها من البشر.
هل يجب علينا التخفيف من هذه الأفكار السلبية حول الذكاء الاصطناعي؟
تقول الإيكونومست: لا ينبغي رفض مثل هذه السيناريوهات. لكن جميعها تنطوي على قدر هائل من التخمين، وقفزة من تكنولوجيا اليوم. ويتخيل الكثيرون أن الذكاء الاصطناعي في المستقبل سيكون له وصول غير مقيد إلى الطاقة والمال وقوة الحوسبة، وهي قيود حقيقية اليوم، ويمكن أن تحرم من الذكاء الاصطناعي المخادع في المستقبل.
علاوة على ذلك، يميل الخبراء إلى المبالغة في تقدير المخاطر في منطقتهم، مقارنةً بالمتنبئين الآخرين. إيلون ماسك، الذي أطلق شركته الخاصة الناشئة في مجال الذكاء الاصطناعي، لديه مصلحة في قيام منافسيه بالتخلص من أدواتهم، كما أن الوقف المؤقت لن يكون قابلاً للتنفيذ.
لكن هناك حاجة إلى التنظيم، ولكن لأسباب أكثر دنيوية من إنقاذ البشرية. تثير أنظمة الذكاء الاصطناعي الحالية مخاوف حقيقية بشأن التحيز والخصوصية وحقوق الملكية الفكرية. مع تقدم التكنولوجيا، يمكن أن تصبح مشاكل أخرى واضحة. في النهاية، المفتاح هو الموازنة بين ما يعطينا الذكاء الاصطناعي وتقييم المخاطر، والاستعداد للتكيف.
ما الذي يجب على الحكومات فعله؟
تتبنى الحكومات حتى الآن ثلاث مقاربات مختلفة. في أحد طرفي الطيف توجد بريطانيا، التي اقترحت نهجاً "خفيفاً" بدون قواعد أو هيئات تنظيمية جديدة، لكنها تطبق اللوائح الحالية على أنظمة الذكاء الاصطناعي. الهدف هو تعزيز الاستثمار وتحويل بريطانيا إلى "قوة عظمى في مجال الذكاء الاصطناعي". اتبعت أمريكا نهجاً مشابهاً، على الرغم من أن إدارة بايدن تبحث الآن عن وجهات نظر عامة حول الشكل الذي قد يبدو عليه كتاب القواعد.
يتخذ الاتحاد الأوروبي خطاً أكثر صرامة، حيث يصنف قانونها المقترح الاستخدامات المختلفة للذكاء الاصطناعي حسب درجة المخاطرة، ويتطلب مراقبة وكشف أكثر صرامة مع ارتفاع درجة المخاطر، على سبيل المثال، من التوصية الموسيقية إلى السيارات ذاتية القيادة. بعض استخدامات الذكاء الاصطناعي محظورة تماماً، مثل الإعلانات اللاشعورية والقياسات الحيوية عن بُعد. سيتم تغريم الشركات التي تنتهك القواعد. بالنسبة لبعض النقاد، هذه اللوائح خانقة للغاية.
لكنَّ آخرين يقولون إن هناك حاجة إلى نهج أكثر صرامة، ويجب على الحكومات التعامل مع الذكاء الاصطناعي مثل الأدوية، مع وجود منظم مخصص، واختبار صارم وموافقة مسبقة قبل الإصدار العام.
وتقوم الصين ببعض من هذا، حيث تطلب من الشركات تسجيل منتجات الذكاء الاصطناعي والخضوع لمراجعة أمنية قبل إصدارها. لكن السلامة قد تكون أقل دافعاً من السياسة: أحد المتطلبات الأساسية هو أن إنتاج الذكاء الاصطناعي يعكس "القيمة الأساسية للاشتراكية".
ما يجب القيام به؟ من غير المرجح أن يكون نهج اللمسة الخفيفة كافياً. إذا كان الذكاء الاصطناعي تقنية مهمة مثل السيارات والطائرات والأدوية – وهناك سبب وجيه للاعتقاد بأنها كذلك- إذاً، مثلهم، سوف يحتاج إلى قواعد جديدة. وبناءً على ذلك، فإن نموذج الاتحاد الأوروبي هو الأقرب إلى الدقة، على الرغم من أن نظام التصنيف الخاص به مُجهد للغاية وأن النهج القائم على المبادئ سيكون أكثر مرونة.
أخيراً، تشكل هذه التكنولوجيا القوية مخاطر جديدة، ولكنها توفر أيضاً فرصاً غير عادية. تحقيق التوازن بين الاثنتين يعني السير بحذر. يمكن أن يوفر النهج المقاس اليوم الأسس التي يمكن إضافة المزيد من القواعد عليها في المستقبل. ولكن حان الوقت للبدء في بناء تلك الأسس.