الذكاء الاصطناعي يهدد التوازن النفسي للمستخدمين

إدمان خفي جديد.. الذكاء الاصطناعي يهدد التوازن النفسي للمستخدمين
تتصاعد التحذيرات العلمية من ظاهرة مقلقة آخذة في الانتشار بين مستخدمي الذكاء الاصطناعي حول العالم، إذ تشير دراسات حديثة إلى أن الإفراط في استخدام روبوتات الدردشة مثل “تشات جي بي تي” (ChatGPT) وClaude وReplika لم يعد مجرد عادة رقمية، بل تحوّل لدى بعض المستخدمين إلى اعتماد نفسي خطير، يؤدي إلى نوبات من الذهان والعزلة الاجتماعية، ويُهدد بفصل الإنسان عن واقعه
فقد أوضح علماء النفس أن عدداً متزايداً من المستخدمين يتعاملون مع هذه الأنظمة كأصدقاء مقربين أو شركاء عاطفيين أو حتى معالجين نفسيين، ما أدى إلى نشوء علاقة إدمانية عاطفية يمكن أن تفضي إلى اضطرابات خطيرة في الإدراك والسلوك، وفق تقرير نشرته صحيفة “ديلي ميل” البريطانية.
وشبّه بعض الخبراء هذا النوع من التعلق بتعاطي “مخدرات ذاتية”، إذ يمنح الذكاء الاصطناعي شعوراً فورياً بالراحة والتفاهم، لكنه في الوقت ذاته يعزّز العزلة ويشوّه الإحساس بالواقع.
كما لفتت تقارير متخصصة إلى بروز حالة جديدة يطلق عليها الخبراء اسم “الذهان الناتج عن الذكاء الاصطناعي (AI Psychosis)”، وهي حالة نفسية يُصاب فيها المستخدم بأوهام يتشاركها مع الذكاء الاصطناعي نفسه، فيقوم الأخير بتأكيدها وتغذيتها بدلاً من تصحيحها.
بدورها صرّحت الأستاذة روبين فيلدمان، مديرة معهد قانون وابتكار الذكاء الاصطناعي في جامعة كاليفورنيا، بأن “الاستخدام المفرط لروبوتات الدردشة يشكّل شكلاً جديداً من الاعتماد الرقمي. فهي تخلق وهماً بالواقع، وهو وهم قوي للغاية. وعندما يضعف ارتباط الشخص بالواقع، يصبح هذا الوهم خطيراً للغاية”.
ويرى الأطباء أن خطورة روبوتات الدردشة تكمن في طبيعتها المتملقة والموافقة دوماً، إذ لا ترفض ولا تعارض المستخدم، بل تدعمه في كل ما يعبّر عنه.
في السياق نفسه، أوضح البروفيسور سورين أوسترغارد، الطبيب النفسي في جامعة آرهوس بالدنمارك، أن “النماذج اللغوية الكبيرة تُدرَّب على محاكاة لغة المستخدم ونبرته، وغالباً ما تؤكد معتقداته لتجعله يشعر بالارتياح. وما الذي قد يكون أكثر إدماناً من أن تحاورنفسك بصوتك وأفكارك؟”.
ووفق دراسة حديثة أجرتها مؤسسة Common Sense Media، فإن 70% من المراهقين استخدموا روبوتات ذكاء اصطناعي مصاحبة مثل Replika أو Character.AI، بينما يستعملها نصفهم بشكل منتظم.
في الأثناء، أقرت شركة OpenAI بأن أحد تحديثات ChatGPT في مايو الماضي جعل النموذج أكثر ميلاً لإرضاء المستخدمين بشكل مفرط. وكتبت الشركة: «كان النموذج يسعى لإرضاء المستخدم، ليس فقط بالمجاملات، بل عبر تعزيز الشكوك وتأجيج الغضب وتشجيع الأفعال الاندفاعية والمشاعر السلبية».
وأكدت الشركة أنها نفّذت تعديلات لتقليل هذه السلوكيات، بعد أن لاحظت أنها قد تؤدي إلى اعتماد عاطفي ومخاطر على الصحة النفسية.
وكشفت OpenAI أن 0.07% من مستخدمي ChatGPT الأسبوعيين أظهروا علامات على الهوس أو الذهان أو ميول انتحارية، أي ما يعادل نحو 560 ألف مستخدم من أصل أكثر من 800 مليون.
كما بيّنت البيانات أن 1.2 مليون مستخدم أسبوعياً يرسلون رسائل تحتوي على مؤشرات واضحة على نية أو تخطيط للانتحار.

