بدأت بعض النساء في الاعتماد على أدوات الذكاء الاصطناعي مثل ChatGPT كوسيلة للتعامل مع الأزمات العاطفية، لكن السؤال يبقى: هل يمكن حقًا أن يحل الذكاء الاصطناعي محل الاتصال الإنساني؟
تشارلي (29 عامًا) من لندن، لجأت إلى ChatGPT عندما دخلت جدتها في مرحلة الرعاية التلطيفية، رغم توفر الدعم من المعالجين وطاقم الرعاية، وأوضحت: "كان من المفيد جدًا أن أطرح أسئلة قاسية أو مظلمة عن الموت – تلك التي أشعر بالذنب لمجرد التفكير بها – ثم أطلب نصيحة حول كيفية التعامل معها".
فيما قالت إيلي (27 عامًا) من جنوب ويلز، إنها استخدمت الذكاء الاصطناعي في لحظات الشعور بالوحدة، وأشارت: ""لم يكن يعرف كل تفاصيل حياتي كالمعالج البشري، لكنه كان متاحًا ولم يحكم عليّ".
أما جوليا (30 عامًا) من ميونخ، فاستعانت به مؤقتًا عندما لم يكن بإمكان معالجها مقابلتها، لكنها لاحظت حدوده بسرعة، وأوضحت: "الإجابات كانت جيدة ولكنها كانت عملية جدًا، بينما يدفعني معالجي الحقيقي إلى التفكير بشكل أعمق".
وأكدت تقرير نشرته صحيفة "ذا ميرور" البريطانية، أن العديد من المعالجين النفسيين يحذرون من الاعتماد الكامل على الذكاء الاصطناعي في العلاج.
ونقلت عن المعالجة النفسية شارلوت فوكس ويبر، قولها: "الذكاء الاصطناعي لا يهتم بك ولا يشعر بك، حتى إن بدا الحوار عميقًا، فإنه لا يمكن مقارنته بالعلاقة الإنسانية".
فيما تضيف المعالجة النفسية التكاملية، تاشا بيلي: "العلاج ليس مجرد تقديم نصيحة، بل هو تفاعل مع إنسان يتعاطف معك ويقودك نحو الشفاء، من دون وجود إنسان فعلي، لا توجد عملية علاجية حقيقية".
فيما، تحذر الخبيرة النفسية كيت باليستري من مؤسسة مركز (Modern Intimacy)، من أن الخصوصية مع أدوات الذكاء الاصطناعي ليست مضمونة كما هي مع المعالجين المرخصين، وتؤكد: "المحادثات مع الذكاء الاصطناعي غير محمية قانونيًا، وقد يُفصح المستخدمون عن معلومات حساسة يمكن تخزينها أو مشاركتها بطرق غير أخلاقية".
وأكد مختصون أنه رغم قدرة ChatGPT على تقديم دعم عاطفي سريع ومجاني، إلا أنه لا يمكن أن يحل محل العلاقة العلاجية الحقيقية المبنية على التعاطف، والخبرة، والخصوصية، بالنسبة للبعض قد يكون الذكاء الاصطناعي نقطة انطلاق، لكنه لا يكفي للعلاج الكامل.