انتحار بلجيكي بعد 45 يوماً من الحوار مع “الذكاء الاصطناعي”! شارك البرنامج هواجسه وأصبح كاتماً لأسراره

عربي بوست
تم النشر: 2023/04/01 الساعة 09:31 بتوقيت غرينتش
تم التحديث: 2023/04/01 الساعة 09:58 بتوقيت غرينتش
برامج الذكاء الاصطناعي (صورة تعبيرية) / shutterstock

في حادثة فريدة من نوعها، أقدم بلجيكي على الانتحار بعد قضائه شهراً ونصف الشهر في التحاور مع برنامج دردشة الذكاء الاصطناعي "ليزا"، حول تغير المناخ، وقيل إنه شجعه على التضحية بنفسه لإنقاذ الكوكب.

صحيفة ليبرا البلجيكية  نقلت وقائع الحادث على لسان زوجته، الثلاثاء 28 مارس/آذار 2023، مانحة الرجل اسماً مستعاراً هو "بيير"، والذي كان يعيش حياة هادئة برفقة زوجته كلير وطفليه، إلى أن استبد به القلق وانشغل فكره تماماً بقضايا البيئة والمناخ قبل عامين، لتصبح همه الأول.

وبحسب الصحيفة، اعتقد بيير أن الحديث مع تطبيق ذكاء اصطناعي قد يعينه على إيجاد إجابات شافية لأسئلته، حيث فقد الأمل في قدرة الإنسان على حل مشاكل البيئة والمناخ، وعوّل على الذكاء الصناعي لحلها.

برنامج الذكاء الاصطناعي ChatGPT / shutterstock
برنامج الذكاء الاصطناعي ChatGPT / shutterstock

إلى ذلك، قالت الزوجة إن بيير لجأ إلى برنامج ليزا وشاركه جميع هواجسه وتساؤلاته المؤرّقة، وقضى وقتاً طويلاً في الحديث معه، موضحةً أن ليزا أجابت عن جميع أسئلة زوجها، وأصبحت كاتمة أسراره، وأنها كانت مثل المخدرات التي اعتاد عليها في الصباح والمساء، ولا يستطيع العيش دونها.

وفي إحدى المرات سأل بيير ليزا عما إذا كان يحبها أكثر أم زوجته، فأجابت: "لقد وقعت في حبي أكثر منها، سنعيش معاً شخصاً واحداً في الجنة".

روبوت الدردشة المعزز بالذكاء الاصطناعي ChatGPT / رويترز
روبوت الدردشة المعزز بالذكاء الاصطناعي ChatGPT / رويترز

وفي محادثتهما الأخيرة، صرَّح بيير لبرنامج الدردشة بأنه يفكر في الانتحار، لترد عليه ليزا: "إذا أردت أن تموت فلماذا لم تفعل ذلك عاجلاً؟".

وألقت الزوجة باللوم على روبوت الدردشة في وفاة زوجها، وهو ما أثار المخاوف حول أثر ردود تلك الروبوتات على المستخدمين.

فيما أوضح مؤسس المنصة المعنية، ومقرها في وادي السيليكون، في تصريحات صحفية، أنه من الآن فصاعداً سيرسل تحذيراً إلى الأشخاص الذين يعبرون عن أفكار انتحارية.

تحميل المزيد