المعتمدة على استخدام الذكاء الاصطناعي.. دراسة متخصصة: 15 خطراً أخلاقيا لاستخدام روبوتات الدردشة

alarab
المزيد 06 مارس 2026 , 12:17ص
واشنطن - وكالات

حذّرت دراسة حديثة أجراها باحثون في جامعة براون الأمريكية، من وجود ثغرات ومخاطر أخلاقية متكررة في استخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي لتقديم نصائح ودعم في مجال الصحة النفسية، مشيرةً إلى أنها قد تنتهك معايير أساسية في الرعاية النفسية حتى عند مطالبتها بالتصرف كمعالجين محترفين.
وذكر موقع “ScienceDaily” العلمي أن الدراسة رصدت 15 خطراً أخلاقياً متكرراً بعد مقارنة أداء روبوتات الدردشة بأداء مستشارين نفسيين مرخصين، وأظهرت النتائج أن النماذج اللغوية الكبيرة قد تتعامل بشكل غير مناسب مع حالات الأزمات النفسية، كما قد تعزز في بعض الأحيان معتقدات خاطئة أو ضارة بدلاً من تصحيحها.
وأشار الباحثون إلى ما وصفوه بـ”التعاطف الخادع”، حيث تستخدم الأنظمة عبارات توحي بالفهم والتعاطف من دون امتلاك إدراك حقيقي أو مسؤولية مهنية تضمن سلامة التدخل العلاجي.
واختبر الفريق أيضاً تأثير تزويد الأنظمة بتعليمات دقيقة مثل “التصرف كمعالج معرفي سلوكي”، إلا أن النتائج أظهرت استمرار أنماط المخاطر ذاتها، ما يشير إلى أن تحسين صياغة الأوامر لا يكفي لضبط أداء هذه الأنظمة من الناحية الأخلاقية.
وشملت الدراسة نماذج طورتها شركات OpenAI وAnthropic وMeta، حيث جرى تقييم المحادثات من قبل ثلاثة اختصاصيين نفسيين مرخصين.
وأكد الباحثون أن الأخطاء قد تحدث حتى لدى المعالجين البشر، إلا أن الفرق يكمن في وجود هيئات تنظيمية وآليات مساءلة قانونية ومهنية تحكم عملهم، في حين لا تتوافر حتى الآن أطر تنظيمية واضحة لمحاسبة أنظمة الذكاء الاصطناعي على الأضرار المحتملة.
ودعا الباحثون المستخدمين إلى توخي الحذر عند الاعتماد على نصائح الصحة النفسية عبر روبوتات الدردشة، ولا سيما في الحالات الحساسة أو الطارئة، مؤكدين أن الفجوة بين المحاكاة اللغوية والرعاية المهنية الفعلية قد تنطوي على مخاطر أكبر مما تبدو عليه.