توصل بحث جديد لمجموعة بوسطن الاستشارية إلى أن استخدام الذكاء الاصطناعي قد يضر في واقع الأمر بأدائك الوظيفي، إذا استُخدم في استخدامات خارج قدراته، وفق ما نقل موقع Business Insider الأمريكي، الإثنين 2 أكتوبر/تشرين الأول 2023.
حيث أجرى مجموعة من الباحثين من مجموعة بوسطن الاستشارية، وجامعة هارفارد، وكلية وارتون لإدارة الأعمال بجامعة بنسلفانيا، ومعهد ماساتشوستس للتكنولوجيا، تجربةً لمعرفة مدى تأثير الوصول إلى الذكاء الاصطناعي على إنتاجية العمال ذوي الياقات البيضاء، وجودة العمل.
من أجل إجراء هذا الاختبار، وضع الباحثون 758 مستشاراً من مستشاري مجموعة بوسطن الاستشارية بصورة عشوائية في واحدة من ثلاث مجموعات: الأولى لا تستخدم الذكاء الاصطناعي، والثانية تستخدم روبوت المحادثة شات جي بي تي المعتمد على نموذج جي بي تي-4، بينما تستخدم الثالثة شات جي بي تي، مع فيديوهات ووثائق إرشادية حول استراتيجيات تصميم الأوامر.
صعوبات بدون وجود إرشاد مكثف
بعد وضع أسس الأداء، أُوكلت إلى الاستشاريين عدة مهام، وتضمنت إحدى المجموعتين اللتين استخدمتا الذكاء الاصطناعي؛ 18 مهمة داخل حدود ما يستطيع الذكاء الاصطناعي تأديته، مثل مبادئ العصف الذهني للمشروبات المبتكرة، أو الإتيان بخطة عمل دقيقة من أجل مفهوم جديد للأحذية.
في حين احتوت المجموعة الثانية على مهام غير مقيدة بدرجة أكبر توجد "خارج حدود" قدرات الذكاء الاصطناعي.
وقالت الدراسة، إنه في حين أن "المستشارين يجيدون" أداء هذه المهام، فإن "الذكاء الاصطناعي يواجه صعوبات بدون وجود إرشاد مكثف".
على سبيل المثال، طُلب من المستشارين الذين أُوكلوا لأداء هذه المهام، أن يقدموا توصيات إلى رئيس تنفيذي لشركة افتراضية عن طريق استخدام البيانات المالية والعاملين داخل الشركة، وهي معلومات لا يستطيع الذكاء الاصطناعي الوصول إليها.
ووجد الباحثون اختلافات صارخة في النتائج الخاصة بالمجموعات الثلاث، استناداً إلى إمكانية استخدام كل مجموعة للذكاء الاصطناعي.
قدرات "متفاوتة" للذكاء الاصطناعي
بالنسبة للمهام التي تقع "داخل حدود" قدرات الذكاء الاصطناعي، كان المستشارين الذين استخدموا الذكاء الاصطناعي "أكثر إنتاجية بدرجة كبيرة وأنتجوا نتائج ذات جودة أعلى" من الآخرين الذين لم يستخدموا الذكاء الاصطناعي.
ومع ذلك، كان المستشارون الذين استخدموا الذكاء الاصطناعي لأداء المهام التي "خارج حدود" قدراته "أقل احتماليةً بنسبة 19% لإنتاج حلول صحيحة مقارنة بالآخرين الذين لا يستخدمون الذكاء الاصطناعي". ويُعزى هذا إلى أن المستشارين الذين استخدموا الذكاء الاصطناعي، وُجد أنهم يستمعون إلى نتائجه بدون تمييز، حتى لو كانت الإجابات خاطئة.
وقالت الدراسة إن هذه النتائج تعرض قدرات "متفاوتة" للذكاء الاصطناعي، وإن النتائج وإن كانت توضح أن الذكاء الاصطناعي "جيد للغاية" في مساعدة البشر مع بعض المهام، فيجب على البشر توخي الحذر عند استخدام التكنولوجيا لتجنب ارتكاب الأخطاء، بحسب ما أوضح سارين راجيندران، أحد الباحثين المشاركين في الدراسة، لموقع "بيزنس إنسايدر"، وأضاف: "يجب علينا أن نكون واعين عند استخدام الذكاء الاصطناعي التوليدي".
وتعرض نتائج دراسة مجموعة بوسطن الاستشارية قصةً تحذيريةً للعاملين الذين يفكرون في استخدام شات جي بي تي لأداء وظائفهم.
نتائج شات جي بي تي ليست مثالية
منذ إطلاق شات جي بي تي في نوفمبر/تشرين الثاني الماضي، يستخدم العمال في مختلف الصناعات روبوت الدردشة المعتمد على الذكاء الاصطناعي – وأحياناً بدون إخبار رؤسائهم- في تطوير الأكواد وإنشاء مواد تسويقية وإنتاج خطط الدروس، لكن نتائج شات جي بي تي ليست مثالية، وتحتوي على "هلوسات".
فقد تعرَّض موقع CNET المتخصص في موضوعات التقنية لانتقادات في وقت سابق من هذا العام، بعد أن لاحظ قراؤه عدداً من المقالات التي أنتجها الذكاء الاصطناعي، والتي تحتوي على أخطاء متعارضة مع الحقائق.
وحددت منصة الرقابة الإعلامية NewsGuard عدداً من مواقع الأخبار "غير الموثوقة" التي تعتمد على الذكاء الاصطناعي بدون إشرافٍ بشريٍ أو بقليلٍ من الإشراف البشري، بلغ عددها حتى يوم 28 سبتمبر/أيلول 2022 487 موقعاً.
كذلك في أحد إعلانات روبوت الدردشة جوجل بارد، ارتكب روبوت الدردشة المعتمد على الذكاء الاصطناعي خطأً متعارضاً مع الوقائع عندما سُئل عن تلسكوب جيمس ويب الفضائي.
بل إن أخطاء الذكاء الاصطناعي قد تكون أسوأ؛ ففي ورقة بحثية حديثة، وجد باحثو الذكاء الاصطناعي أن نماذج الذكاء الاصطناعي التوليدي قد يجري تدريبها قريباً على المحتوى الذي ينتجه الذكاء الاصطناعي: وهي ظاهرة يُطلقون عليها "انهيار النماذج"، إذ يمكن أن تكون نتيجة هذا الأمر مخرجات ذات جودة أسوأ في المستقبل القريب.