حوار مع الخبير القانوني محمد البيه عن الفرص التنافسية لمصر في المنطقة العربية

تحقيق النمو الاقتصادي من خلال إصدار تشريعات لإدارة حماية البيانات والذكاء الاصطناعي والأمن السيبراني

أخبار مصر

الخبير القانوني محمد
الخبير القانوني محمد البيه

محمد البيه، الخبير القانوني المختص في قوانين وسياسات إدارة حماية البيانات والأمن السيبراني في واشنطن، حيث يتمتع بخلفية قانونية في أمن المعلومات والخصوصية والذكاء الاصطناعي، وهذا ما مكنه من التعاون مع مؤسسة التمويل الدولية بالبنك الدولي، حيث يبحث في قضايا الامتثال لقوانين وسياسات البنك الدولي لحماية البيانات وإدارة مخاطرها.

 أثناء حصوله على درجة الماجستير في قوانين أمن المعلومات السيبراني والأمن القومي من كلية الحقوق بجامعة جورج واشنطن، كان أيضا باحث في سياسات الذكاء الاصطناعي والخصوصية وأمن المعلومات في مجلس صناعة تكنولوجيا المعلومات الأمريكي، حيث تابع وحلل بدقة الاتجاهات القانونية والسياسية العالمية في هذه المجالات المحورية. قبل انتقاله لواشنطن، شغل محمد البيه منصب وكيل النائب العام بمصر. 


يناقش الخبير محمد البيه النمو الاقتصادي من خلال قوانين الخصوصية والذكاء الاصطناعي وأمن المعلومات في مصر والمنطقة العربية، ويقدم في هذا المقال خبرته الواسعة وتخصصه الأكاديمي في علاقة القانون بالتكنولوجيا والتنمية الاقتصادية. 


في ظل المشهد التكنولوجي المتغير بسرعة، لماذا تعتقد أن قوانين الخصوصية وأمن المعلومات والذكاء الاصطناعي أصبحت محور تركيز للدول في جميع أنحاء العالم؟


في ظل المشهد التكنولوجي المتغير بسرعة، أصبحت الحاجة إلى تطوير أطر قانونية شاملة تتناول حماية المعلومات الشخصية وأمن أنظمة الكمبيوتر وحوكمة تقنيات الذكاء الاصطناعي، محور اهتمام الدول في جميع أنحاء العالم. بينما نتنقل عبر عصر التحول الرقمي، أصبحت كمية البيانات الحساسة التي يتم إنشاؤها ومعالجتها غير مسبوقة. ومع الاستخدام المتزايد للذكاء الاصطناعي في مختلف القطاعات، أصبح ضمان التطوير والنشر لهذه التقنيات مع حماية خصوصية الأفراد وتعزيز تدابير أمن المعلومات أمرًا بالغ الأهمية.


يستعد الشرق الأوسط، ببنية التحتية الرقمية المتنامية سريعًا، لاستغلال فوائد الذكاء الاصطناعي. حيث يتطلب هذا تنسيق القوانين المتعلقة بالخصوصية وأمن المعلومات وحوكمة الذكاء الاصطناعي. فعلى سبيل المثال، في قطاع الرعاية الصحية، تعالج أنظمة الذكاء الاصطناعي كميات هائلة من بيانات المرضى، مما يتطلب قوانين خصوصية قوية لحماية المعلومات الحساسة، وتدابير صارمة لأمن المعلومات لتأمين البيانات من التهديدات السيبرانية، وإطار لحوكمة الذكاء الاصطناعي، لو هذا ضمان اتخاذ القرارات بشكل عادل وشفاف من قبل هذه الأنظمة. لقد وضعت دولة الإمارات العربية المتحدة على سبيل المثال هدفًا طموحًا لتصبح رائدة عالميًا في مجال الذكاء الاصطناعي بحلول عام 2031، بينما أطلقت المملكة العربية السعودية الاستراتيجية الوطنية للبيانات والذكاء الاصطناعي لتعزيز التبني عبر مختلف القطاعات، مما يؤكد التزام المنطقة بهذه الرؤية التشريعية.


توسيع دورة حياة البيانات في أنظمة الذكاء الاصطناعي، نهج شامل للامتثال: ما هو الدور الذي تلعبه دورة حياة البيانات داخل نظام الذكاء الاصطناعي، ولماذا تعد أساسية لصياغة قوانين فعالة للخصوصية وأمن المعلومات والذكاء الاصطناعي؟


يعد فهم تعقيدات البيانات داخل نظام الذكاء الاصطناعي أمرًا أساسيًا لصياغة قوانين فعالة للخصوصية والذكاء الاصطناعي. حيث تبدأ دورة حياة البيانات داخل نظام الذكاء الاصطناعي بجمع المعلومات، وهي عملية يجب أن تمتثل للقواعد الصارمة التي يتعين على الشركات اتباعها لحماية المعلومات الشخصية للأفراد. على سبيل المثال، قد تتطلب قوانين خصوصية البيانات من الشركات الحصول على موافقة صريحة من الأفراد قبل جمع بياناتهم وحذف تلك البيانات عند الطلب. فقد وضعت دول الشرق الأوسط، بما في ذلك مصر، إرشادات تحكم جمع البيانات بشكل قانوني وأخلاقي، مما يحمي خصوصية الأفراد من البداية.


عند الانتهاء من المرحلة الأولى، وهي جمع البيانات، تأتي مرحلة الثانية وهي التخزين. حيث شرعت عدة دول في المنطقة العربية مثل مصر والسعودية والإمارات قوانين لأمن المعلومات من شأنها أن تضمن آليات حماية قوية للبيانات المخزنة. فيشمل ذلك معايير التشفير وضوابط الوصول والتدقيقات الأمنية المنتظمة للحد من مخاطر اختراق البيانات. بما يعزز أيضًا سلامة أنظمة الذكاء الاصطناعي بشكل عام. كما توفر لائحة حماية البيانات العامة الصادرة عن الاتحاد الأوروبي إطارًا شاملًا لمعالجة دورة حياة البيانات، مع أحكام محددة تتعلق بالحد من البيانات وتقييد التخزين وممارسات الحذف الآمن للبيانات. شرعت مصر مؤخرًا قانونًا لحماية البيانات الشخصية في عام 2020، والذي يتضمن أحكامًا للحصول على الموافقة قبل جمع البيانات، وتمكين الأفراد من طلب حذف بياناتهم الشخصية، بما يتوافق مع مبادئ حماية البيانات الواردة في لائحة الاتحاد الأوروبي.


لربط هذه الجوانب معًا، فمن المهم تطوير إطار مساءلة للذكاء الاصطناعي. بحيث يكون هذا الإطار بمثابة مجموعة شاملة من الإرشادات التي تشمل دورة حياة البيانات بأكملها، من التجميع إلى التخزين وما بعدها من خلال تنفيذ تدابير المساءلة، مثل الشفافية في صنع القرار الخوارزمي والتدقيق المنتظم. ويمكن للدول في الشرق الأوسط تعزيز بيئة مناسبة تعمل فيها تقنيات الذكاء الاصطناعي بشكل أخلاقي ومسؤول. 

يوفر إطار الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتكنولوجيا الأمريكي أيضًا نموذجًا قيمًا للمنظمات لإدارة المخاطر بشكل أفضل وتعزيز ممارسات الخصوصية في كل مرحلة من دورة حياة البيانات، بما يتماشى مع مبادئ تطوير الذكاء الاصطناعي الأخلاقي والمسؤول.