ثلث العلماء يخشون نهاية العالم بسبب الروبوتات.. دراسة: قرارات الذكاء الاصطناعي يمكن أن تتسبب في كارثة هذا القرن

عربي بوست
تم النشر: 2022/09/29 الساعة 11:42 بتوقيت غرينتش
تم التحديث: 2022/09/29 الساعة 11:42 بتوقيت غرينتش
صورة تعبيرية لروبوت/ istock

يخشى ثلث الباحثين في مجال الذكاء الاصطناعي من نهاية العالم بسبب الروبوتات أو أنظمة التعليم الآلي التي لا تقل خطورة عن حرب نووية شاملة، بحسب صحيفة The Times البريطانية، الخميس 29 سبتمبر/أيلول 2022.

إذ تشير دراسة استقصائية إلى أنَّ علماء الحياة الواقعية يعتبرون أن تخيل كتاب السيناريو آلة شريرة فائقة الذكاء ستقضي على البشرية معقولاً تماماً؛ حيث يعتقد الباحثون في مجال الذكاء الاصطناعي أنه يمكن أن يتسبب في كارثة شبيهة بالحرب النووية التي ستنهي العالم.

شمل البحث، الذي أجراه فريق من جامعة نيويورك، 327 عالماً نشروا مؤخراً أبحاث عن الذكاء الاصطناعي، واتفق 36% منهم على أنه "من المعقول أنَّ القرارات التي يتخذها الذكاء الاصطناعي أو أنظمة التعلم الآلي يمكن أن تتسبب في كارثة هذا القرن لا تقل خطورة عن حرب نووية شاملة".

فيما قال 73% من الباحثين إنَّ الذكاء الاصطناعي يمكن أن يؤدي إلى تغييرات مجتمعية على مستوى الثورة الصناعية، بينما قال 61% إنَّ الشركات الخاصة لديها تأثير كبير للغاية في هذا المجال.

الجغرافيا السياسية

ووفقاً للصحيفة البريطانية، فإن كلاً من الطغاة وأباطرة المال اعترفوا بالفعل بالدور الذي يعد الذكاء الاصطناعي بالإسهام به في الجغرافيا السياسية.

إذ قال الرئيس الروسي بوتين في عام 2017 إنَّ "من يصبح القائد في هذا المجال سيحكم العالم". ودفعت تعليقاته الملياردير إيلون ماسك إلى تحديد الصراع العالمي للهيمنة على مجال الذكاء الاصطناعي بأنه السبب الأكثر احتمالاً لحرب عالمية ثالثة.

ولم يوضح الاستطلاع كيف يمكن للذكاء الاصطناعي أن يتسبب في كارثة على المستوى النووي، لكن سيناريو نهاية العالم قد يتضمن دمج التكنولوجيا في أسلحة مستقلة.

إلى ذلك، يعتقد جوليان مايكل من جامعة نيويورك، الذي قاد البحث، أنَّ بعض المستجيبين للاستطلاع ربما كانوا يفكرون في "سيناريوهات الخيال العلمي عن الذكاء الاصطناعي المتمرد"، التي تعمل فيها أجهزة الحاسوب المارقة على إحداث الفوضى. 

وتابع مايكل: "من ناحية أخرى، كان البعض يفكر بالتأكيد في المزيد من الكوارث الجيوسياسية الكلاسيكية مع انتشار الذكاء الاصطناعي. على سبيل المثال، إذا نُشِر التعلم الآلي [شكل من أشكال الذكاء الاصطناعي] في بعض التطبيقات المهمة؛ مثل نظام الإنذار النووي وارتكب خطأ… فستكون هذه مشكلة".

وأُرسِل الاستطلاع إلى العلماء العاملين فيما يُعرَف بمعالجة اللغة الطبيعية، وهي أحد أكثر المجالات نشاطًا في أبحاث الذكاء الاصطناعي، وتتضمن بناء حواسيب تعكس قدرة الإنسان على استخلاص المعنى والمعرفة من اللغة. وصُمِّم الاستطلاع لتسليط الضوء على كيفية تفكير أعضاء هذا المجتمع في الجوانب المثيرة للجدل لعملهم.

قضايا أخلاقية

وتشمل القضايا الخلافية الأخرى البصمة الكربونية لأنظمة الذكاء الاصطناعي، التي تتطلب كميات كبيرة من الطاقة، إذ أشار 60% من الباحثين إلى ذلك باعتباره "مصدر قلق كبير". وفي الوقت نفسه، وافق 59% على أنَّ "الاعتبارات الأخلاقية في مجالهم يمكن أن تتعارض أحياناً مع تقدم العلم"، وقال 57% إنه كانت هناك بالفعل "خطوات مهمة نحو تطوير الذكاء الاصطناعي العام"، أي آلة لها القدرة الفكرية للإنسان.

من ناحية أخرى، سعى رئيس هيئة جديدة ممولة من الحكومة البريطانية، التي أُنشِئَت لتسريع أبحاث الذكاء الاصطناعي والروبوتات، يوم الأربعاء 28 سبتمبر/أيلول، إلى طمأنة الناس بأنهم لا يحتاجون إلى الخوف من التكنولوجيا. وقال ستيوارت ميلر، الرئيس التنفيذي لشركة National Robotarium الرائدة للروبوتات والذكاء الاصطناعي، التي افتتحت مركزاً في إدنبره، "سيكون هناك حتماً المزيد من الروبوتات في حياة الجميع".

تحميل المزيد