دولي, التقارير

هل يتحول الذكاء الاصطناعي إلى "بديل خطير" للعلاج النفسي؟

الخبير النفسي العصبي ألب تكين أيدين، للأناضول: - الذكاء الاصطناعي بئر بلا قاع، وإذا دُرِّب على مجال محدد يمكنه تقديم إجابات جيدة، لكن روبوت الدردشة العام لا يعرف تاريخك، لذلك تكون إجاباته عامة، وأحيانا مضللة وخطيرة

Behlül Çetinkaya, Hişam Sabanlıoğlu  | 29.11.2025 - محدث : 29.11.2025
هل يتحول الذكاء الاصطناعي إلى "بديل خطير" للعلاج النفسي؟

Greater London

لندن/ بهلول جتين قايا/ الأناضول

** الخبير النفسي العصبي ألب تكين أيدين، للأناضول:
- الذكاء الاصطناعي بئر بلا قاع، وإذا دُرِّب على مجال محدد يمكنه تقديم إجابات جيدة، لكن روبوت الدردشة العام لا يعرف تاريخك، لذلك تكون إجاباته عامة، وأحيانا مضللة وخطيرة
- حلول الذكاء الاصطناعي تبدو منطقية على الورق، لكنها بعيدة تماما عن الواقع النفسي والتربوي
- الإفراط في الاعتماد على الذكاء الاصطناعي سيجعل المستخدمين أقل قدرة على اتخاذ القرار

** رئيس الجمعية البريطانية لعلم النفس، رومان راتشكا، للأناضول:
- الذكاء الاصطناعي قد يبدو متفهما، لكنه لا يمتلك التعاطف الإنساني
- الذكاء الاصطناعي أداة تساعد المختصين فقط عندما تستخدم في إطار صحيح وتحت إشراف بشري مباشر

حذر خبراء الصحة النفسية في بريطانيا من مخاطر تزايد لجوء الأفراد إلى الذكاء الاصطناعي بحثا عن دعم نفسي، في ظل الانتشار الواسع لروبوتات الدردشة الرقمية.

ويؤكد المتخصصون أن هذه الأدوات، رغم فائدتها في بعض المهام اليومية، لا تملك القدرة على فهم العواطف الإنسانية ولا على طرح الأسئلة اللازمة للتشخيص الصحيح، ما يجعل استخدامها كبديل للعلاج النفسي "خطرا حقيقيا".

وبات الذكاء الاصطناعي جزءا من الحياة اليومية، يلجأ إليه المستخدمون لطلب النصائح الشخصية والمهنية وتخطيط السفر وحتى استشارة صحية مبسطة.

لكن هذا الاستخدام المتسع أسفر عن حالات توجيه خاطئ وأثار مخاوف بعد تقارير تحدثت عن أشخاص أنهوا حياتهم عقب تلقيهم نصائح من روبوتات الدردشة بدلا من مختصين.

وقال خبراء تحدثوا للأناضول إن الاعتماد على الذكاء الاصطناعي "قد يفاقم حالات الاكتئاب والقلق بدل معالجتها"، خاصة عندما تكون المعلومات المقدمة ناقصة أو عامة ولا تراعي السياق الشخصي للمريض.

وأكدوا أن "التعامل مع الأزمات النفسية يتطلب إنسانا لا خوارزمية، حتى يتمكن من تقديم الحلول".

** بئر بلا قاع

الخبير النفسي العصبي ألب تكين أيدين، صاحب عيادة في شمال لندن، قال إنه يستخدم الذكاء الاصطناعي في إطار مهني ضيق عبر نظام مغلق مخصص للمتخصصين، لكنه شدد على وجود فجوة كبيرة بين الأنظمة الاحترافية وتلك المتاحة للجمهور.

وأوضح أيدين: "الذكاء الاصطناعي بئر بلا قاع، وإذا دُرِّب على مجال محدد يمكنه تقديم إجابات جيدة، لكن روبوت الدردشة العام لا يعرف من أنت، ولا يعرف تاريخك ولا الظروف التي مررت بها.. لذلك تكون إجاباته عامة، وأحيانا مضللة وخطيرة".

وأشار إلى أن كثيرا من المرضى يصلون إلى عيادته بعد أن يكونوا قد استشاروا روبوتات الدردشة حول الأدوية والجرعات ومشكلات نفسية معقدة، وهو ما قد يؤدي إلى "عواقب ثقيلة على المجتمع".

وأضاف أن الذكاء الاصطناعي لا يبني صورة شاملة عن المريض كما يفعل المعالج البشري الذي يستمع للخلفيات العائلية والاجتماعية والطبية ويطرح الأسئلة بصورة تدريجية قبل تقديم أي توجيه.

** مخاطر أكبر على المراهقين

ورأى أيدين أن أخطر ما يواجهه الشباب اليوم هو التعامل مع إجابات الذكاء الاصطناعي باعتبارها صحيحة تماما، دون إدراك أنها مبنية على معلومات ناقصة.

وأضاف: عندما تكتب جملة قصيرة للحصول على نصيحة علاجية فأنت لم تقدم أي تفاصيل.. لا تاريخ، لا علاقات، لا ظروف.. لذلك فالنصيحة التي تحصل عليها غير قابلة للتطبيق على الواقع.

وأشار إلى أن وزارة الصحة البريطانية نصحت الأطباء بعدم استخدام الذكاء الاصطناعي في تشخيص المرضى، مؤكدا ضرورة بقاء البيانات الصحية في أنظمة مغلقة حفاظا على الخصوصية.

** نصائح مضللة

ولفت أيدين أنه أجرى اختبارا على أحد برامج الدردشة عبر انتحال شخصية طفل يتعرض للسخرية بسبب ضعف مستواه في الرياضيات، مشيرا إلى أن الذكاء الاصطناعي قدم وفق التجربة سلسلة من النصائح غير الواقعية للطفل المفترض.

ونوه أيدين أن النصائح المقدمة خلال التجربة، لا يمكن لطفل يعاني صعوبات اجتماعية أن ينفذها.

وأشار الخبير إلى أن حلول الذكاء الاصطناعي تبدو منطقية على الورق، لكنها بعيدة تماما عن الواقع النفسي والتربوي.

وشدد أيدين على أن دور المعالج الحقيقي هو تفكيك المشكلة من جذورها ومساعدة الطفل على تطوير أدوات واقعية للتعامل مع محيطه، لا تقديم ردود منمقة وغير قابلة للتطبيق.

وأكّد أيدين على أن المشكلات النفسية لا يمكن التعامل معها عبر أسئلة عامة، قائلا: "كيف يمكن لمن يعاني الاكتئاب أو الوسواس أن يحصل على حل عبر سؤال واحد؟ العلاج النفسي سلسلة من الأسئلة العميقة، بينما الذكاء الاصطناعي يقدم خيارات محدودة لا تراعي التفاصيل".

وحذر من أن الإفراط في الاعتماد على الذكاء الاصطناعي سيجعل المستخدمين أقل قدرة على اتخاذ القرار، كما حدث سابقا عندما توقف الناس عن حفظ أرقام الهواتف لاعتمادهم على الهواتف الذكية.

** لا يعوّض التعاطف الإنساني

بدوره، قال رئيس الجمعية البريطانية لعلم النفس رومان راتشكا، إن الذكاء الاصطناعي، رغم فوائده، لا يمكنه أن يحل محل الدعم الإنساني الحقيقي في مجال الصحة النفسية.

وأضاف: "هناك خطر حقيقي في خلق وهم للتواصل، والذكاء الاصطناعي قد يبدو متفهما، لكنه لا يمتلك التعاطف الإنساني".

ورغم إمكانية استخدامه كأداة مساعدة تعمل على مدار الساعة، إلا أن راتشكا يؤكد ضرورة دمجه كعامل داعم ضمن الخدمات النفسية لا كبديل عنها.

كما دعا الحكومة إلى زيادة الاستثمار في الكوادر المتخصصة لتلبية الطلب المتزايد على العلاج النفسي.

واختتم راتشكا حديثه بالتأكيد على أن الذكاء الاصطناعي، مهما تطور، لن يكون عصا سحرية، بل أداة تساعد المختصين فقط عندما تستخدم في إطار صحيح وتحت إشراف بشري مباشر.

الأخبار المنشورة على الصفحة الرسمية لوكالة الأناضول، هي اختصار لجزء من الأخبار التي تُعرض للمشتركين عبر نظام تدفق الأخبار (HAS). من أجل الاشتراك لدى الوكالة يُرجى الاتصال بالرابط التالي.