نوهوا بأنه لم يعد تقنية مساعدة.. «الخيمة الخضراء»: أخلاقيات الذكاء الاصطناعي.. قضية إنسانية وقيمية

alarab
محليات 26 فبراير 2026 , 01:25ص
حامد سليمان

ناقشت الجلسة الثالثة من جلسات الخيمة الخضراء التابعة لبرنامج «لكل ربيع زهرة»، عضو مؤسسة قطر «أخلاقيات استخدام الذكاء الاصطناعي».
تطرق المشاركون في الجلسة لأربعة محاور رئيسية شملت: الخصوصية وحماية البيانات، والسياسات والتشريعات لتحقيق الشفافية والمساءلة، والعدالة وعدم التحيز في البيانات والخوارزميات، إضافة إلى التأثير الاجتماعي والأخلاقي لمنظومات الذكاء الاصطناعي.
وعكست الجلسة إدراكاً متزايداً بأن الذكاء الاصطناعي لم يعد مجرد تقنية مساعدة، بل أصبح منظومة تؤثر في القرارات اليومية للأفراد والمؤسسات، ما يفرض ضرورة إعادة النظر في الأطر الأخلاقية والقانونية الناظمة له.
في مستهل الجلسة، أكد الدكتور سيف بن علي الحجري، رئيس البرنامج، أن اختيار موضوع أخلاقيات الذكاء الاصطناعي للجلسة الثالثة لم يأتِ من فراغ، بل استجابة لتساؤلات متزايدة يطرحها المجتمع حول حدود استخدام هذه التقنية، مؤكدا أن الذكاء الاصطناعي بات يتداخل في العديد من المجالات الرئيسية في المجتمع وأبرزها التعليم والصحة والإعلام والاقتصاد، ما يثير أسئلة جوهرية: من يملك البيانات؟ وكيف تُستخدم؟ ومن يتحمل المسؤولية عند وقوع الخطأ؟
وأضاف أن الجلسة تسعى إلى بناء وعي مجتمعي متوازن، لا يقوم على التخوف من التقنية ولا على الانبهار بها، بل على فهم عميق لمخاطرها وإمكاناتها. وأوضح أن أخلاقيات الذكاء الاصطناعي ليست قضية تقنية بحتة، بل قضية إنسانية وقيمية، تتعلق بحماية الكرامة الإنسانية وضمان عدم انتهاك الخصوصية أو استغلال البيانات بطرق تضر بالأفراد أو المجتمعات.
 من جانبه، أكد المهندس علي فهد الكعبي من إدارة حماية البيانات في الوكالة الوطنية للأمن السيبراني أن دولة قطر من اوائل دول العالم التي أصدرت قانوناً لحماية البيانات الشخصية، في خطوة سبّاقة تعكس إدراكاً مبكراً لأهمية صون خصوصية الأفراد في ظل التحول الرقمي المتسارع.
وأوضح أن حماية البيانات لم تعد مسألة تنظيمية فقط، بل أصبحت عنصراً أساسياً في بناء الثقة الرقمية، لافتاً إلى أن الوكالة الوطنية تبذل جهوداً متواصلة لتعزيز منظومة حماية البيانات الشخصية من خلال تطوير الأطر التنظيمية، ورفع مستوى الامتثال لدى الجهات المختلفة، وتكثيف التوعية المجتمعية.
وأكد أنه سيتم طرح إطار تنظيمي خاص بعمليات حماية البيانات الشخصية في تطبيقات الذكاء الاصطناعي خلال الفترة القادمة، بهدف ضمان الاستخدام المسؤول للتقنيات الحديثة، وتحقيق التوازن بين الابتكار وحماية الحقوق. 
وفي سياق متصل، تناول عدد من الخبراء المشاركين الإطار التشريعي للذكاء الاصطناعي، مشيرين إلى أن العالم يشهد سباقاً لوضع قوانين تنظم هذه التقنية، خاصة بعد توسع استخدامها في القطاعات الحيوية. وأوضحوا أن التشريعات يجب أن تواكب التطور السريع، دون أن تعرقل الابتكار أو تحدّ من الاستفادة من الفرص الاقتصادية التي يوفرها الذكاء الاصطناعي.
وأوضح الخبراء أن الذكاء الاصطناعي يعتمد في جوهره على البيانات، وكلما زادت جودة البيانات ودقتها، زادت كفاءة الأنظمة الذكية، غير أن الخطورة تكمن في إساءة استخدام تلك البيانات أو جمعها دون ضوابط واضحة، مؤكدين أن أي خلل في إدارة البيانات قد يؤدي إلى انتهاك الخصوصية أو إنتاج قرارات غير عادلة نتيجة تحيزات كامنة في قواعد البيانات أو الخوارزميات.
وأكد المتحدثون أن تحقيق العدالة وعدم التحيز في الخوارزميات يمثل أحد أكبر التحديات، إذ يمكن للأنظمة الذكية أن تعكس تحيزات البيانات التي تدربت عليها، ما قد يؤدي إلى قرارات غير منصفة.
كما ناقش المشاركون التأثير الاجتماعي لمنظومات الذكاء الاصطناعي، معتبرين أن التقنية قد تعيد تشكيل سوق العمل، وأن مسؤولية المؤسسات تكمن في تأهيل الكفاءات الوطنية لمواكبة التحولات الجديدة.
وأكدوا أن الاستخدام الأخلاقي للتقنية يتطلب شراكة بين الجهات التشريعية والتنفيذية والأكاديمية والقطاع الخاص، إضافة إلى إشراك المجتمع في الحوار حول حدود الاستخدام المقبول.