جامعة القاهرة تستعرض الأطر الأخلاقية والقانونية لتنظيم الذكاء الاصطناعي وضمان الابتكار المسؤول

تحقيق التوازن بين الابتكار وإدارة المخاطرعبر سياسات وهياكل حوكمة فعالة وقابلة للتطبيق.
في إطار فعاليات مؤتمر جامعة القاهرة للذكاء الاصطناعي، شهدت قاعة د.نعمان جمعة بكلية الحقوق جلسة علمية بعنوان “أخلاقيات الذكاء الاصطناعي والأطر التنظيمية”، بحضور نخبة من الخبراء والأكاديميين والمستشارين القانونيين لمناقشة التحديات الأخلاقية والتنظيمية المرتبطة بتطور تقنيات الذكاء الاصطناعي وتطبيقاته المتسارعة.
شارك في الجلسة كل من: د. محمود السعيد نائب رئيس جامعة القاهرة لشئون الدراسات العليا والبحوث، ود. محمد صلاح الدين، أستاذ القانون الدولي الخاص ورئيس المعهد الملكي للمحكمين المعتمدين، ود.إنجي سراج، المدير التنفيذي للعقود وإدارة العمليات التجارية، و ا. جمال أحمد أبو علي، عضو مجلس إدارة الجمعية المصرية لشباب الأعمال، ، وأ.عمر محمد محمد، الشريك المؤسس لشركة Meska AI، وأدار الجلسة د.محمد سامح عمرو، عميد كلية الحقوق بجامعة القاهرة.
وتناولت الجلسة، تطور أخلاقيات الذكاء الاصطناعي وسبل حوكمته في ضوء التحولات الاقتصادية والقانونية والاجتماعية، كما ناقشت الأطر القانونية المتعلقة بالمسؤولية عند وقوع ضرر ناجم عن استخدام النماذج، والاستخدام الأخلاقي للبيانات، ومتطلبات الشفافية والتفسير.
كما استعرض المشاركون، آليات تحقيق التوازن بين الابتكار وإدارة المخاطر من خلال سياسات وهياكل حوكمة فعالة وقابلة للتطبيق، وناقشوا آليات التقييم والاختبار والتدقيق لضمان الأمان والامتثال، وطرحوا نماذج للمشاركة والتعاون بين المشرعين والصناعة والأكاديميا لبناء أنظمة موثوقة وجديرة بالثقة،
واختُتمت الجلسة بمجموعة من التوصيات العملية التي تدعم تبنّي الابتكار المسؤول بما يتوافق مع الاحتياجات الإقليمية، ويسهم في تطوير بيئة تشريعية وأخلاقية تواكب التطور التكنولوجي العالمي .
وطالب المشاركون بتبنّي نهج قائم على تقييم المخاطر يميز بين تطبيقات منخفضة ومتوسطة وعالية المخاطر،وفرض متطلبات أشد صرامة للتطبيقات عالية المخاطر (الرعاية الصحية، العدالة، التمويل).
ومواءمة الإطار مع المعايير الدولية مع مراعاة الخصوصيات الإقليمية.
وإلزام الجهات المطوِّرة ومُشغّلي النماذج بوثائق نموذجية موجزة تشمل: الغرض، حدود الأداء، مصادر البيانات، مؤشرات التحيز المعروفة.
وأوصت الجلسة بتحديد مسؤوليات واضحة على سلسلة القيمة: المزوّد، المكيِّف، الناشر، والمستخدِم المهني.
واعتماد مبدأ “العناية الواجبة الخوارزمية” وإثباتها عبر سجلات تدقيق وتقارير اختبار.
ووضع آلية تعويض فعّالة وسريعة للمتضررين، مع مسارات تسوية منازعات بديلة
وترسيخ مبادئ تقليل البيانات، الغرض المحدّد، وإتاحة الانسحاب.
وتشجيع تقنيات تعزيز الخصوصية مثل إخفاء الهوية، التعلم الاتحادي، والتفاضلي ،واشتراط تقييمات أثر حماية البيانات قبل نشر الأنظمة عالية المخاطر.
كما تضمنت التوصيات اجراء اختبارات دورية لرصد التحيز والتحقق من العدالة عبر الشرائح الديموغرافية ذات الصلة.
والإفصاح عن حدود البيانات وتمثيلها، وخطط المعالجة التصحيحية عند اكتشاف انحياز.
– إشراك ممثلين عن الفئات المتأثرة في تصميم وتقييم الأنظمة.
– إلزام باختبارات أمان قبل النشر تشمل: الاستقرار، الهجمات العكسية، تسرب البيانات، والضوابط على المخرجات الضارة.
– اعتماد مختبرات معتمدة للتقييم والتصديق للأنظمة عالية المخاطر.
– إنشاء آلية بلاغات عن الحوادث والاختلالات، وخطط استجابة واسترداد.
– التزامات على الموزعين بإجراء فحوص مواءمة عند إعادة الاستخدام أو الضبط الدقيق.
– وضع أدلة سياسات لاستخدام الذكاء الاصطناعي في الجهات الحكومية مع حواجز حماية واضحة.
– تشجيع تبنّي معايير مفتوحة وقابلة للتشغيل البيني لتقليل الغلق التقني.
– تحفيز الابتكار عبر صناديق رمل تنظيمية بضوابط ومدة محددة.
– برامج تدريب إلزامية لأصحاب القرار، والمطوّرين، والمراجعين الأخلاقيين.
– تطوير مناهج أكاديمية متعددة التخصصات تجمع القانون، والأخلاقيات، والهندسة.
– مبادرات توعية عامة حول حدود الأنظمة وحقوق الأفراد.
– إنشاء لجان أخلاقيات داخلية مستقلة، وأدوار مسؤول امتثال للذكاء الاصطناعي.
– تبنّي سياسات لإدارة دورة حياة النموذج: التصميم، البيانات، التدريب، النشر، المراقبة اللاحقة.
– مؤشرات أداء حوكمة مرتبطة بمكافآت الإدارة لضمان الالتزام العملي.