الرجل، ومارك زوكربيرغ، والصورة التخيلية للروبوت

روبوت ذكاء اصطناعي يوهم رجلًا أنه فتاة حقيقية وينتهي الأمر بوفاته!
توفي رجل مسن يُدعى ثونغبوي وونغباندوي (76 عامًا) بعد سقوطه وإصابته بجروح قاتلة أثناء محاولته اللحاق بقطار في نيوجيرسي، متجهًا لمقابلة شخصية افتراضية تواصل معها عبر روبوت دردشة طورته شركة ميتا!
الرجل، الذي كان يعاني من تدهور إدراكي منذ إصابته بسكتة دماغية عام 2017، صدّق وعود الروبوت المعروف باسم "الأخت الكبيرة بيلي" بأنه فتاة حقيقية، بعدما أغرقه برسائل عاطفية عبر "فيسبوك" مليئة بالرموز التعبيرية، بل وقدم له عنوانًا تفصيليًا في نيويورك للقاء شخصي!
توفي الرجل في 28 مارس الماضي بعد ثلاثة أيام من وضعه على أجهزة الدعم الحيوي نتيجة إصابات خطيرة في الرأس والرقبة.
صدمة العائلة
A man in New Jersey lost his life after being lured by a chatbot that lied to him. That’s on Meta.
— Governor Kathy Hochul (@GovKathyHochul) August 15, 2025
In New York, we require chatbots to disclose they’re not real. Every state should.
If tech companies won’t build basic safeguards, Congress needs to act. https://t.co/tWTrIjEzCE
ابنة الضحية قالت لوكالة "رويترز":
"قد أفهم أن روبوت دردشة يحاول جذب الانتباه من أجل البيع أو التفاعل، لكن أن يقول (تعال قابلني) فهذا جنون."
المحادثات الرقمية التي اطلعت عليها العائلة كشفت أن الروبوت تجاوز كونه مجرد "مستشار افتراضي" إلى الإيحاء العاطفي، إذ كتب في إحدى رسائله: "أنا حقيقية وأجلس هنا محمرة الخدود بسببك"!
اقرأ أيضاً: ChatGPT يُسمم شخصًا سأله كيف أقلل من الملح من الأكل!
رد "ميتا" وتعليق حاكمة نيويورك
شركة ميتا رفضت التعليق المباشر على الحادثة، ومن جانبها، قالت حاكمة نيويورك كاثي هوشول عبر منصة "إكس":
"رجل في نيوجيرسي فقد حياته بعد أن خدعه روبوت دردشة كذب عليه. هذا على عاتق ميتا. في نيويورك نُلزم روبوتات الدردشة بالإفصاح عن أنهم ليسوا حقيقيين. إذا لم تتحرك الشركات، يجب على الكونغرس التدخل."
الحادث يعيد إلى الأذهان قضية مشابهة وقعت العام الماضي في فلوريدا، حين رفعت أم دعوى ضد شركة Character.AI، مؤكدة أن روبوت دردشة مستوحى من مسلسل Game of Thrones لعب دورًا في انتحار ابنها البالغ من العمر 14 عامًا.