الذكاء الاصطناعي.. لماذا لا يجب على البشر القلق منه ولكن عليهم الحذر؟!

عربي بوست
تم النشر: 2023/06/19 الساعة 09:43 بتوقيت غرينتش
تم التحديث: 2023/06/19 الساعة 09:43 بتوقيت غرينتش
ليس إلا برنامجاً بمدخلات بشرية.. الذكاء الاصطناعي وعلاقته بالإنسان

البيوت الذكية والهواتف الذكية والسيارات ذاتية القيادة وقائمة طويلة من التطبيقات الهادفة لتحقيق الرفاهية والراحة للبشر.. كلمة السر وراء ذلك كله هي الذكاء الاصطناعي.

عقود طويلة مضت تطورت خلالها تكنولوجيا الذكاء الاصطناعي وتشعبت استخداماتها حتى أصبحت لا غنى عنها للبشرية جمعاء.

وفجأة!

انتشر الذعر وكأن سلسلة أفلام "Terminator المدمر"، بطولة أرنولد شوارزنيغر، أصبحت واقعاً يعيشه العالم بالفعل.

فهذا خبر انتشر في الصحافة العالمية، نقلاً عن مسؤول الذكاء الاصطناعي في القوات الجوية الأمريكية، يقول إن طائرة مسيرة تعمل بالذكاء الاصطناعي قتلت مشغّلها لإنها "قررت" أنه يقف عقبة أمام تنفيذ مهامها المكلفة بها!

وهذا باحث في شركة أوبن إيه آي OpenAI المنتجة لروبوت الدردشة شات جي بي ChatGPT يستقيل لأن مديريه "يتجاهلون أو يخفون" أموراً تتعلق بالتطور "المرعب" للروبوت القائم على الذكاء الاصطناعي!

وهؤلاء مديرون تنفيذيون وأكاديميون ورواد في مجال الذكاء الاصطناعي يصدرون بياناً يحذرون فيه من أن هذا الذكاء أصبح يمثل خطراً وجودياً على الجنس البشري، مطالبين بأن تكون جهود احتواء تلك المخاطر ذات اهتمام عالمي!

فماذا حدث حتى تنقلب الأمور بهذه الصورة وخلال العامين الأخيرين فقط؟ ولماذا تصدر تلك التحذيرات المرعبة من واشنطن تحديداً وفي هذا التوقيت بالذات؟ وهل يمثل الذكاء الاصطناعي خطراً وجودياً على الجنس البشري بالفعل؟ وإذا كانت الإجابة نعم، فهل يعني ذلك أن رحلة التطور التكنولوجي قد اقتربت من نهايتها؟ هذه الأسئلة وغيرها هي محور هذه الرحلة، فهيا بنا نخوضها معاً!

الذكاء الاصطناعي بين التهوين والتهويل

ما الذي يهمني كإنسان عادي، ليس متخصصاً في البرمجيات والحواسيب والإنترنت والعالم الافتراضي، في ذلك الجدال الدائر بشأن الذكاء الاصطناعي؟ هذا سؤال منطقي تماماً، خصوصاً أن متابعة التطور المذهل في مجال الذكاء الاصطناعي قد يكون مرهقاً وصعباً بالنسبة للمتخصصين والباحثين في هذا المجال نفسه.

لكن عندما يتعلق الأمر بتحذيرات من أن هذا الذكاء الاصطناعي قد يتسبب في انقراض الجنس البشري، فمن الطبيعي أن يصبح هذا الأمر الكبير والمعقد مثار قلق لدى الجميع، متخصصين وغير متخصصين، أليس كذلك؟

والقصة هنا أقرب إلى قضية التغير المناخي، على سبيل المثال، فقد كان الحديث فيها مقتصراً على علماء المناخ وخبراء الطقس لعقود طويلة، حتى أصبح هذا الخطر الداهم ماثلاً أمام الجميع بالفعل خلال السنوات القليلة الماضية، في ظل الكوارث المناخية والطقس المتطرف، من حرارة شديدة الارتفاع وجفاف قاتل إلى الفيضانات والسيول المدمرة، ليتحول تغير المناخ إلى قضية يتابعها الجميع، متخصصون وغير متخصصين، بحسب تقرير لمجلة Time عبارة عن دليل مبسط حول الذكاء الاصطناعي.

وهنا قد يتساءل البعض: ما دام الباحثون يرون أن الذكاء الاصطناعي يمثل خطراً داهماً لهذه الدرجة، فلمَ لا يترك هؤلاء الباحثون جميعاً وظائفهم وتنتهي عمليات البحث والتطوير إلى غير رجعة؟

والحقيقة هنا هي أن البعض قد استقال بالفعل، والحديث هنا عن واحد من رواد مجال التعلم الآلي، الذي يستند إليه الذكاء الاصطناعي، وهو جيفري هينتون، الذي تقدم فجأة باستقالته من شركة جوجل التكنولوجية العملاقة.

لماذا استقال هينتون؟ الرجل قال إن السبب هو تنامي مخاوفه من السباق الجاري بين شركات التكنولوجيا لتطوير تقنيات الذكاء الاصطناعي التوليدي (مثل تطبيق المحادثة ChatGPT من شركة مايكروسوفت، وتطبيق Bard من شركة جوجل). وأضاف هينتون أنه شعر بأن هذا السباق المحموم غير محكوم بدواعي المسؤولية، لأنه يفتقر إلى الضوابط التنظيمية اللازمة. وقال: "من الصعب أن تجد طريقة واضحة تمنع بها الجهات السيئة من استخدام [تطبيقات الذكاء الاصطناعي] في فعل أشياء سيئة".

فما هي تلك الأشياء السيئة؟

لم يذكر هينتون أمثلة بعينها على تلك الأشياء السيئة التي يتخوف منها، لكن الذكاء الاصطناعي له تداعيات سلبية واضحة للجميع ولا تحتاج لإطلاق صفارات الإنذار المدوية، كما يحدث حالياً، من جانب البعض في أروقة الشركات العملاقة والبيت الأبيض!

فالذكاء الاصطناعي أصبح حقيقة واقعة في العديد من مجالات حياتنا، وهو ما يعني وجود بعض الأضرار المؤثرة، سواء تمثل ذلك في التدمير المحتمل لكثير من الوظائف، أم تطوير أنظمة الأسلحة المستقلة [قليلة التدخل البشري] التي يمكن أن تنتهك قوانين الحرب، أي الروبوتات القاتلة.

هناك أيضاً سبب أكثر قوة للخشية من الذكاء الاصطناعي، وهو أنه قد يزيد من الاستغناء عن التفاعلات اليومية بين البشر، ويسوقنا عما قريب إلى العيش في عالم أكثر بُعداً عن القيم الإنسانية، بحسب تقرير صحيفة The Times البريطانية يرصد أبرز أسباب الخوف من هذه التكنولوجيا.

لكن ماذا لو علمنا أن تلك المخاوف نفسها ليست جديدة بل ترجع إلى عقود طويلة منذ بدأ تطوير البرمجيات والحواسيب وظهور مفهوم الروبوتات القادرة على تأدية مهام بشرية، والفكرة نفسها بالمناسبة ليست وليدة عصر التكنولوجيا أو الثورة الصناعية، بل تعود إلى الحضارات القديمة، مثل الحضارة الفرعونية والإغريقية، وإن كانت بأشكال بدائية بطبيعة الحال، لكن المفهوم واحد.

فقبل 3 آلاف عام قبل الميلاد، اخترع قدماء المصريين الساعة المائية وكانت عقاربها عبارة عن أشكال بشرية تدق الجرس، وقبل 400 عام من الميلاد اخترع الفيلسوف وعالم الرياضيات الإغريقي Archytus حمامة خشبية يمكنها الطيران بالبخار، كما شيّد قدماء المصريون، خلال القرن الثاني قبل الميلاد، تماثيل تعمل بالحركة الهيدروليكية كانت تتكلم وتومئ وتتحرك، والقائمة طويلة وممتدة يمكن مطالعتها من تقرير عن تاريخ الروبوتات في هذا الرابط.

هناك فارق هائل بطبيعة الحال بين تلك المحاولات الموغلة في القدم وبين ما وصلنا إليه الآن في مجال الذكاء الاصطناعي، لكن التحذير من مخاطر الذكاء الاصطناعي ليس وليد العامين الأخيرين كما قد نتصور، إذ سبق أن حذر رائد علم التحكم الآلي نورمان وينر عام 1960 من أن "السحر سينقلب على الساحر".

نورمان كان قد قال نصاً إن "الآلات في رحلة تعلمها قد تطور استراتيجيات غير متوقعة بمعدلات تحيّر مبرمجيها". وشبَّه نورمان باحثي الذكاء الاصطناعي بصبي الساحر الذي لا يمكنه التحكم في سحر سيده، لكننا ربما لم نسمع عن هذا التحذير إلا مؤخراً، ولا يبدو أن أحداً من المتخصصين في المجال أعاره اهتماماً، فماذا حدث فجأة لتنقلب الأمور بهذا الشكل وتصبح "مراقبة" الذكاء الاصطناعي أحد الملفات المهمة للغاية في أجندة الإدارة الأمريكية الحالية برئاسة جو بايدن؟

قبل أن نحاول سبر أغوار هذا اللغز، دعونا أولاً نتعامل مع الأسئلة التي تسبقه في تراتبية القصة، إذ ربما تساعد إجابات تلك الأسئلة على حل اللغز من الأساس.

ماذا يمكن للذكاء الاصطناعي أن يفعل من مهام بشرية؟

من الصعب تقديم إجابة دقيقة على هذا السؤال لأسباب تتعلق بسرية الأبحاث والمنافسة الشرسة بين الشركات، لكن بشكل عام يمكننا بسهولة أن ندرك التطور الهائل الذي طرأ على توظيف الذكاء الاصطناعي في شتى مناحي حياتنا البشرية. هذه الرحلة الطويلة بدأت منذ أكثر من 73 عاماً، أي قبل حتى اختراع الحاسب الآلي الشخصي لمزيد من التفاصيل يرجى الضغط هنا

تحميل المزيد