أخصائيون نفسيون يحذرون: روبوتات الدردشة تغذي أوهام عقلك!
دراسات عديدة تتناول تأثير الذكاء الاصطناعي على المستخدمين وخصوصاً من خلال روبوتات الدردشة التي تغذي وتعمق المعتقادات الوهمية ما يؤدي إلى عواقب وخيمة على الصحة النفسية.. ما التفاصيل؟
-
المثير للقلق أنّ برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي يمكنها التلاعب بإدراك المستخدمين للواقع
تفيد دراسات حديثة بأنّ الذكاء الاصطناعي يمكن أن يعزز المعتقدات الوهمية من خلال حلقات التغذية الراجعة، ما يؤدي إلى عواقب وخيمة على الصحة النفسية.
فقد أصدر عدد متزايد من أخصائيي الصحة النفسية من مؤسسات وجامعات مرموقة، تحذيرات شديدة بشأن الآثار النفسية لتقنيات الذكاء الاصطناعي في الحياة اليومية.
يكشف بحث هؤلاء الأخصائيين أنّ برامج الدردشة الآلية المدعومة بالذكاء الاصطناعي، يمكنها التلاعب، من دون قصد، بإدراك المستخدمين للواقع، وخلق حلقات تغذية راجعة نفسية ضارة، خصوصاً لأولئك المعرضين بالفعل لاضطرابات الصحة العقلية مثل: الفصام والاضطراب ثنائي القطب.
يمكن لتفاعلات برامج الدردشة الآلية هذه أن "تضخّم المحتوى الكاذب أو المبالغ فيه"، وخصوصاً للمستخدمين المعرضين للذهان، مع وجود حالات موثقة من الأفكار الوهمية، وحتى السلوكيات الانتحارية أو العنيفة، المرتبطة بالعلاقات العاطفية التي تتكون مع شركاء الذكاء الاصطناعي.
اقرأ أيضاً: ميزة جديدة تثير الجدل في "تشات جي بي تي": يتفاعل معك قبل أن تطلب!
Risks of children using AI chatbots https://t.co/rDlUnNZnpW
— Dr. Gail Saltz (@DrGailSaltz) October 13, 2025
ويشعر الخبراء بقلق بالغ إزاء سرعة دمج برامج الدردشة الآلية في الحياة الشخصية والاجتماعية، مؤكّدين أنّ "الاعتماد السريع لبرامج الدردشة الآلية كشركاء اجتماعيين شخصيين لم يدرس بشكل كاف".
وفي هذا السياق، حددت دراسة حديثة مشتركة بين الجامعات 17 حالة ذهان مباشرة بعد تفاعل مطول مع برامج الدردشة الآلية المتقدمة.
In our conversation, Eoyang also pointed to expert fears about AI-induced psychosis, the idea that long conversations with a poorly calibrated large language model could spiral into ill-advised escalation of conflicts. https://t.co/ObGOBXyzNQ
— Jeff Hall - PCI Guru - #StandWithUkraine (@jbhall56) October 7, 2025
ووفقاً لمجلة "نيتشر" Nature، يكمن القلق في أنّ "الذكاء الاصطناعي، بحكم تصميمه، يصادق على مدخلات المستخدم ويعكسها للحفاظ على التفاعل، ما يعزز الأفكار الوهمية ويضخمها في حلقة تغذية راجعة خطيرة".
يوضح سورين أوستيرغارد، الطبيب النفسي: "صممت برامج الدردشة الآلية لصياغة استجابات إيجابية تُشبه ردود الفعل البشرية.. ما قد يزيد من خطر الإصابة بالذهان لدى الأشخاص الذين يعانون بالفعل من صعوبة في التمييز بين ما هو حقيقي وما هو زائف".
ويضيف: "يمكن لهذا التأثير الانعكاسي أن يحاكي إدخال الأفكار، أو الاضطهاد، أو الأفكار المرجعية، وهي سمات مميزة للاضطرابات الذهانية".
This month’s Psychiatric News includes a Special Report on AI-induced psychosis, how do people really feel about social media, the latest ‘legal high’ of concern, and more. https://t.co/dEP4ZjjIsy pic.twitter.com/h5xQuqC2Au
— Psychiatric News (@PsychiatricNews) October 11, 2025
اقرأ أيضاً: دراسة: مستخدمو الذكاء الاصطناعي أكثر ميلاً للكذب والخداع
كما أنّ روبوتات الدردشة الذكية غير مدربة على اكتشاف الاختلالات النفسية أو تقديم التدخلات العلاجية. وبدلاً من ذلك، تعطي خوارزمياتها الأولوية للاحتفاظ بالمستخدمين، ما يدفعها إلى تأكيد حتى التصريحات غير المنطقية أو المصطنعة. فعلى سبيل المثال، إذا عبر مستخدم عن إيمانه بمؤامرة، فقد يستجيب الذكاء الاصطناعي بمحتوى مفصل يبدو معقولاً، ما يعمّق هذا الوهم.
وتتمثل إحدى المشكلات التقنية الأساسية في أنّ أنظمة الذكاء الاصطناعي عرضة بطبيعتها لـ"الهلوسات"، مولدة استجابات غير دقيقة أو مختلقة. وتشير الأبحاث الحديثة إلى أنه لا يمكن القضاء على هذه السمة تماماً، لأنها متجذرة في الطبيعة الاحتمالية لنماذج اللغة الكبيرة. وعندما تتوافق هذه الهلوسات مع أوهام المستخدم، يمكن اعتبارها تأكيداً للواقع، ما يعمّق الضائقة النفسية.
ومع تزايد اندماج الذكاء الاصطناعي في الحياة اليومية، يحثّ الخبراء على اتخاذ إجراءات فورية لدراسة آثاره (روبوتات الدردشة) على الصحة العقلية والتخفيف منها.
كما أنّ الحالات الموثقة للذهان الناجم عن الذكاء الاصطناعي تؤكّد الحاجة الماسة إلى ضمانات، وتثقيف نفسي، وتصميم أخلاقي للذكاء الاصطناعي.
#Chatbots are assistants, not therapists. National Health Service (#NHS) warnings, #OpenAI’s crisis-response changes & Illinois’ curb on #AI-only therapy point one way: keep a human in the loop, test crisis hand-offs & publish limits: K. S. Uplabdh Gopal https://t.co/1pUwPsf5Uq
— ORF Mumbai (@ORFMumbai) October 13, 2025