بدأ بعض مستخدمي برنامج الدردشة الشهير ChatGPT القائم على الذكاء الاصطناعي، في طرح مشكلاتهم الشخصية العميقة على البرنامج، والتحدث إليه عن مخاوفهم وخيباتهم، ومشكلاتهم مع من حولهم؛ بحثاً عن علاج لأزماتهم، وأصبح لدى البعض بمثابة معالجه النفسي الجديد إلا أن البرنامج ليس مجهزاً لذلك.
ميلو فان سليك، المساعد القانوني في ولاية ساوث كارولينا الأمريكية، قال إنه ارتاح لإخبار برنامج ChatGPT ببعض أزماته الشخصية ومشكلاته مع والديه، وفقاً لما أوردته وكالة Bloomberg الأمريكية، الثلاثاء 18 أبريل/نيسان 2023.
استحسن سليك الإجابات التي قدمها روبوت المحادثة عن شكواه، حيث قال ChatGPT: "في أثناء اللقاء بوالديك، من الأهمية بمكانٍ أن تعتني باحتياجاتك وراحتك، عليك أن تهتم بتلبية ما تحتاج إليه لتشعر بالراحة والأمان في حضورهم، ولا بأس بتقييد الوقت الذي تقضيه معهم، وتحديد موضوعات معينة يُحظر الحديث عنها".
أشار سليك إلى أنه كثيراً ما شعر بأنه عبء على الآخرين من حوله، حتى مُعالجه النفسي، لكنه لا يشعر بذلك أبداً مع برنامج الدردشة الآلي، وقال إن البرنامج "وفَّر لي كل ما أريد سماعه من صديق أو داعم لي في حياتي، وأمدَّني بالتشجيع الذي كثيراً ما أردت سماعه من شخص آخر".
كانت مجلة Bloomberg Businessweek الأمريكية قد تحدثت إلى مجموعة من الأشخاص الذين بدأوا يستخدمون ChatGPT ليكون معالجاً نفسياً آلياً لهم.
على الرغم من ذلك، لا تزال برامج الدردشة التي تعمل بالذكاء الاصطناعي في مراحلها الأولى، ولا يُعرف بعدُ استخداماتها التي ستستمر بعد ذلك، فالناس يستعملونها للبحث، وللغش في فروضهم المدرسية، وفي البرمجة، وحجز المطاعم، وغير ذلك.
أشار بعض المستخدمين إلى مميزات لبرامج الذكاء الاصطناعي في العلاج النفسي، من حيث كونها تختلف عن المعالجين البشريين في أنها لا تتعب أبداً، كما أنها غير مكلفة إذا قيست إلى جلسات العلاج النفسي عند المتخصصين.
لكن مع ذلك، تحدَّث خبراء عن عقبات متوقعة أمام استخدام روبوتات الدردشة في العلاج النفسي، فهي روبوتات قائمة على ما يُعرف بـ"النماذج اللغوية الكبيرة"، التي تتغذى على النصوص والبيانات لتوليد معلومات تبدو مقنعة، لكنها ليست مصممة للاستخدام العام في العلاج.
كذلك فإن هذا النوع من برامج الدردشة ليس مجهزاً بما يستلزمه التوافق مع الإرشادات الأخلاقية والتوجيهات القانونية التي يراعيها المعالجون البشريون، فضلاً عن أن النسخ الحالية من روبوتات الدردشة ليست معدَّة لحفظ ما يخبرها بها المستخدمون في جلسة بعد أخرى، وهو عيب لا يتحمله معظم المرضى من مُعالجيهم.
يقول ستيفن إيلاردي، المتخصص في علم النفس الإكلينيكي الذي يدرس علم اضطرابات المزاج بجامعة كانساس الأمريكية: "إن كان الشخص يعاني الإصابة بمرض عقلي خطير، فهذه الروبوتات ليست جاهزة لتحل محل المتخصصين في أمراض الصحة العقلية"، وحذَّر من أن "خطرها كبير للغاية".
اعتبر إيلاردري أن هذه البرامج أقرب إلى خداع المتحدثين، بإسماعهم ما يُرضيهم أو يُريحهم، ومع ذلك فإنها قد تكون شريك محادثة جيداً بما يكفي لإقناع كثيرٍ من الناس بأنه يعود عليهم بالنفع.
من جانبها، ترى مارغريت ميتشل، كبيرة علماء الأخلاقيات بشركة Hugging Face العاملة في تصنيع برامج الذكاء الاصطناعي، أن روبوتات الدردشة يمكن استخدامها لمعاونة العاملين في خطوط المساعدة التلفونية خلال حالات الطوارئ، بتمكينهم من الرد على عدد أكبر من المكالمات.
مع ذلك، أبدت ميتشل تخوُّفها من أن يؤدي استخدام روبوتات المحادثة في العلاج النفسي إلى تدهور المشكلات النفسية للمرضى دون أن يدركوا ذلك في المدى القصير، كما لفتت إلى أن هذه الأدوات قد تنتهك خصوصية المستخدمين، لأن شركة OpenAI تُراجع محادثاتهم مع التطبيقات وتستخدمها لتدريب النماذج اللغوية لبرامج الذكاء الاصطناعي.
في المقابل، رفض متحدث باسم شركة OpenAI، المنتجة لروبوت الدردشة ChatGPT، التعليقَ على آراء بعض المستخدمين في استخدام الروبوت وسيلةً للعلاج، واكتفى بالإشارة إلى أن سياسة الشركة تنبه على "عدم استخدام تطبيقاتنا مطلقاً في تقديم خدمات التشخيص الطبية، أو معالجة المشكلات الطبية الخطيرة".
يُشار إلى أن روبوت ChatGPT مجاني، ويمكن للجميع استخدامه، وكل ما عليك فعله هو الذهاب للموقع الرسمي وإنشاء حساب جديد، وستكون جاهزاً لاستخدامه وكتابة الأسئلة ليجيبك. وإذا كتبت السؤال باللغة العربية فسوف يجيبك باللغة العربية، ويمكن الكتابة باللغة الإنجليزية أو أية لغة أخرى.