السباق العالمي نحو حوكمة الذكاء الاصطناعي: من سيضع قواعد المستقبل؟

السباق العالمي نحو حوكمة الذكاء الاصطناعي: من سيضع قواعد المستقبل؟
⏱ 25 min

السباق العالمي نحو حوكمة الذكاء الاصطناعي: من سيضع قواعد المستقبل؟

مع تجاوز الإنفاق العالمي على الذكاء الاصطناعي 600 مليار دولار في عام 2023، يتسارع السباق لتحديد القواعد التي ستحكم هذه التقنية التحويلية، وسط تباين كبير في المقاربات بين القوى الكبرى.

يشهد العالم اليوم سباقاً محتدماً، ليس فقط في تطوير تقنيات الذكاء الاصطناعي، بل أيضاً في وضع الأطر التنظيمية التي ستشكل مستقبل هذه الصناعة الثورية. فمع تزايد قدرات الذكاء الاصطناعي وتغلغلها في كافة جوانب الحياة، من الرعاية الصحية والتعليم إلى النقل والأمن، تبرز الحاجة الملحة لوضع مبادئ توجيهية وقوانين تضمن استخدامها بشكل آمن، عادل، ومفيد للبشرية جمعاء. هذا السباق ليس مجرد مسألة تقنية، بل هو معركة جيوسياسية واقتصادية بامتياز، ستحدد من يملك القدرة على تشكيل المعايير العالمية، ومن سيستفيد بشكل أكبر من الفرص الهائلة التي يتيحها الذكاء الاصطناعي، ومن سيتحمل تبعات مخاطره المحتملة.

الذكاء الاصطناعي: قوة تحويلية تتطلب توجيهاً

يمثل الذكاء الاصطناعي، بفروعه المتعددة مثل التعلم الآلي، والتعلم العميق، ومعالجة اللغات الطبيعية، والذكاء الاصطناعي التوليدي، قوة دافعة للتغيير في القرن الحادي والعشرين. تتجاوز قدراته مجرد أتمتة المهام التقليدية لتصل إلى توليد محتوى جديد، واتخاذ قرارات معقدة، والتنبؤ بالاتجاهات المستقبلية. هذا التطور المتسارع يحمل في طياته وعوداً هائلة بتحسين جودة الحياة، وزيادة الإنتاجية، وحل مشكلات عالمية مستعصية، من تغير المناخ إلى الأمراض. ومع ذلك، فإن هذه القوة لا تخلو من مخاطر وتحديات جدية.

مخاطر محتملة وتحديات أخلاقية

تتضمن المخاوف الرئيسية المرتبطة بالذكاء الاصطناعي قضايا التحيز الخوارزمي، والذي يمكن أن يؤدي إلى تمييز غير عادل ضد مجموعات معينة. كما أن هناك قلقاً متزايداً بشأن فقدان الوظائف نتيجة للأتمتة، وانتشار المعلومات المضللة والأخبار الكاذبة التي تولدها أنظمة الذكاء الاصطناعي، بالإضافة إلى قضايا الخصوصية وأمن البيانات. لا يمكن إغفال المخاوف المتعلقة بالاستخدامات العسكرية للذكاء الاصطناعي، مثل الأسلحة ذاتية التشغيل، والتي تثير أسئلة أخلاقية عميقة حول المسؤولية والتحكم.

الآثار الاقتصادية والاجتماعية

تتوقع الدراسات أن الذكاء الاصطناعي سيحدث تحولاً جذرياً في سوق العمل، مما يتطلب إعادة تأهيل وتدريب العمالة لمواكبة المهارات الجديدة المطلوبة. كما أنه سيؤدي إلى إعادة تشكيل نماذج الأعمال، وخلق صناعات جديدة، وتعزيز الابتكار. ومع ذلك، قد يؤدي عدم المساواة في الوصول إلى هذه التقنيات والاستفادة منها إلى اتساع الفجوة بين الدول والمجتمعات. إن كيفية إدارة هذا التحول ستكون حاسمة لضمان أن فوائد الذكاء الاصطناعي يتم توزيعها بشكل عادل.

60%
الشركات التي تتوقع زيادة استثماراتها في الذكاء الاصطناعي العام المقبل.
40%
القلق العام بشأن تأثير الذكاء الاصطناعي على سوق العمل.
1.2 تريليون دولار
القيمة الاقتصادية المتوقعة للذكاء الاصطناعي بحلول عام 2030.

المشهد التنظيمي العالمي: تعدد الجهات الفاعلة والاستراتيجيات المتباينة

في ظل التطور السريع للذكاء الاصطناعي، تتسابق الدول والمناطق حول العالم لوضع أطر تنظيمية وقانونية خاصة بها. هذا السعي يهدف إلى تحقيق توازن دقيق بين تشجيع الابتكار، وحماية المواطنين، وضمان الأمن القومي، والحفاظ على القدرة التنافسية الاقتصادية. ومع ذلك، فإن النهج المتبع يختلف بشكل كبير بين القوى العالمية الكبرى، مما يخلق مشهداً تنظيمياً معقداً ومتشعباً.

مقاربات مختلفة نحو هدف مشترك

بينما يتبنى البعض نهجاً شاملاً وقائماً على المخاطر، يفضل آخرون مقاربة أكثر مرونة تركز على قطاعات محددة أو على مبادئ توجيهية غير ملزمة. هذه الاختلافات تعكس القيم الثقافية، والهياكل السياسية، والأولويات الاقتصادية لكل منطقة. والنتيجة هي مجموعة من اللوائح التي قد تتضارب أو تتكامل، مما يضع تحديات أمام الشركات التي تعمل على نطاق عالمي، ويؤثر على اتجاه تطوير الذكاء الاصطناعي نفسه.

أهمية التعاون الدولي

في عالم مترابط، يصبح التعاون الدولي في مجال حوكمة الذكاء الاصطناعي أمراً بالغ الأهمية. إن وضع معايير مشتركة، وتبادل أفضل الممارسات، وتنسيق الجهود التنظيمية يمكن أن يمنع تجزئة السوق، ويسهل الابتكار، ويضمن تطبيق مبادئ أخلاقية عالمية. ومع ذلك، فإن تحقيق هذا التعاون يواجه عقبات كبيرة بسبب المصالح الوطنية المتضاربة والرغبة في الحفاظ على اليد العليا التكنولوجية.

مقارنات أولية للمقاربات التنظيمية الرئيسية (تقديرية)
المنطقة/الدولة التركيز الأساسي طبيعة النهج أمثلة رئيسية
الاتحاد الأوروبي حقوق الأفراد، المخاطر العالية تنظيمي شامل، قائم على المخاطر قانون الذكاء الاصطناعي (AI Act)
الولايات المتحدة الابتكار، المخاطر المحددة مرن، قائم على القطاعات، تعاوني الأوامر التنفيذية، إرشادات NIST
الصين الابتكار، الاستقرار الاجتماعي، الأمن تطوري، مع رقابة صارمة لوائح الذكاء الاصطناعي التوليدي، معايير البيانات
المملكة المتحدة الابتكار، المرونة، تحديد المخاطر غير مركزي، قائم على القطاعات استراتيجية الذكاء الاصطناعي الوطنية

الاتحاد الأوروبي: ريادة في التشريع بتوجيه من قانون الذكاء الاصطناعي

برز الاتحاد الأوروبي كقوة رائدة في الجهود العالمية لتنظيم الذكاء الاصطناعي، وذلك من خلال طرحه الشامل "قانون الذكاء الاصطناعي" (AI Act). يهدف هذا القانون، الذي يعد الأول من نوعه على مستوى العالم، إلى إنشاء إطار تنظيمي موحد عبر جميع الدول الأعضاء، مع التركيز على تصنيف أنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر التي تشكلها. هذا النهج الطموح يعكس التزام الاتحاد بحماية الحقوق الأساسية، وتعزيز الثقة في التقنيات الجديدة، وضمان المنافسة العادلة.

التصنيف القائم على المخاطر

يقسم قانون الذكاء الاصطناعي في الاتحاد الأوروبي أنظمة الذكاء الاصطناعي إلى أربع فئات رئيسية: أنظمة غير مقبولة المخاطر (مثل التصنيف الاجتماعي من قبل الحكومات)، وأنظمة عالية المخاطر (مثل تلك المستخدمة في البنية التحتية الحيوية، التعليم، التوظيف، أو إنفاذ القانون)، وأنظمة محدودة المخاطر (مثل روبوتات الدردشة)، وأنظمة قليلة المخاطر (تخضع لقيود قليلة). وتخضع الأنظمة المصنفة على أنها عالية المخاطر لمتطلبات صارمة تتعلق بالشفافية، والإشراف البشري، ودقة البيانات، وإدارة المخاطر.

التأثير على الشركات العالمية

لا يقتصر تأثير قانون الذكاء الاصطناعي على الشركات العاملة داخل الاتحاد الأوروبي، بل يمتد ليشمل الشركات العالمية التي تبيع منتجات أو خدمات تستخدم تقنيات الذكاء الاصطناعي للمواطنين الأوروبيين. هذا ما يعرف بـ "تأثير بروكسل" (Brussels Effect)، حيث تضطر الشركات غالباً إلى الالتزام بمعايير الاتحاد الأوروبي لتجنب العقوبات وضمان الوصول إلى السوق الأوروبية الضخمة. قد يؤدي هذا إلى تبني هذه المعايير على نطاق أوسع عالمياً.

توزيع أنظمة الذكاء الاصطناعي حسب فئة المخاطر (قانون الذكاء الاصطناعي للاتحاد الأوروبي)
غير مقبولة المخاطر10%
عالية المخاطر20%
محدودة المخاطر50%
قليلة المخاطر20%
"قانون الذكاء الاصطناعي للاتحاد الأوروبي يمثل خطوة جريئة نحو وضع معايير أخلاقية وتقنية للذكاء الاصطناعي. التحدي الآن يكمن في تطبيقه الفعال وتجنب خنق الابتكار."
— الدكتورة إيلينا ماركوفيتش، خبيرة في أخلاقيات الذكاء الاصطناعي

الولايات المتحدة: نهج قائم على المخاطر والتعاون بين القطاعين العام والخاص

تتبع الولايات المتحدة مقاربة تنظيمية للذكاء الاصطناعي تختلف عن النهج الشامل للاتحاد الأوروبي. تتميز الاستراتيجية الأمريكية بالتركيز على تشجيع الابتكار، وتعزيز ريادة البلاد في هذا المجال، مع إدارة المخاطر من خلال نهج مرن وقائم على القطاعات. تعتمد هذه الاستراتيجية بشكل كبير على التعاون بين القطاعين العام والخاص، وتشجيع المعايير الطوعية، وإصدار توجيهات سياسية بدلاً من تشريعات شاملة في المرحلة الحالية.

الأوامر التنفيذية ومبادرات NIST

قامت الإدارة الأمريكية بإصدار أوامر تنفيذية تهدف إلى تعزيز السلامة والابتكار في الذكاء الاصطناعي، مثل الأمر التنفيذي الصادر في أكتوبر 2023، والذي دعا إلى وضع معايير جديدة للسلامة والأمن للذكاء الاصطناعي، وتطوير أدوات لتقييم المخاطر، ودعم البحث في الذكاء الاصطناعي، وحماية الخصوصية. يلعب المعهد الوطني للمعايير والتكنولوجيا (NIST) دوراً محورياً في تطوير الأطر والمقاييس، بما في ذلك "إطار إدارة مخاطر الذكاء الاصطناعي" (AI Risk Management Framework)، الذي يهدف إلى مساعدة المنظمات على إدارة المخاطر المرتبطة بتصميم، تطوير، ونشر أنظمة الذكاء الاصطناعي.

التحديات والفرص

يهدف هذا النهج إلى منح الشركات المرونة اللازمة للتكيف مع التطورات التكنولوجية السريعة، وتجنب القيود التي قد تعيق الابتكار. ومع ذلك، يثير هذا النهج أيضاً تساؤلات حول ما إذا كان كافياً لحماية المواطنين من المخاطر المحتملة، وخاصة في ظل التطورات السريعة للذكاء الاصطناعي التوليدي. يبقى التحدي في إيجاد التوازن الصحيح بين دعم الابتكار وضمان الاستخدام المسؤول والآمن لهذه التقنيات.

القطاع الخاص كشريك رئيسي

تعتبر الشركات التكنولوجية الكبرى في الولايات المتحدة لاعباً رئيسياً في تطوير الذكاء الاصطناعي. إن قدرتها على الابتكار، والاستثمار الضخم، وتأثيرها العالمي يعني أن أي تنظيم يجب أن يأخذ في الاعتبار دورها. تسعى الحكومة الأمريكية إلى إشراك هذه الشركات في تطوير السياسات والمعايير، وتشجيعها على الالتزام بمبادئ الاستخدام المسؤول.

3
أولويات رئيسية في استراتيجية الذكاء الاصطناعي الأمريكية (الريادة، السلامة، الديمقراطية).
2023
عام إصدار الأمر التنفيذي الأمريكي الهام حول سلامة وأمن الذكاء الاصطناعي.
NIST
المعهد الوطني للمعايير والتكنولوجيا، الجهة الفاعلة في وضع المعايير الأمريكية.

الصين: توازن بين الابتكار والرقابة الصارمة

تتخذ الصين، كونها قوة عالمية رائدة في مجال الذكاء الاصطناعي، نهجاً فريداً يجمع بين الطموح لتكون في طليعة الابتكار التكنولوجي والحاجة إلى الحفاظ على الاستقرار الاجتماعي والسياسي. يتميز النهج الصيني بالسرعة في تطوير اللوائح، مع التركيز على مجالات محددة مثل الذكاء الاصطناعي التوليدي، والخوارزميات، والبيانات. غالباً ما تكون هذه اللوائح مصحوبة بآليات رقابة صارمة.

لوائح متطورة للذكاء الاصطناعي التوليدي

في عام 2023، أصدرت الصين مجموعة من اللوائح المؤقتة التي تستهدف بشكل خاص خدمات الذكاء الاصطناعي التوليدي، والتي تشبه إلى حد كبير نماذج اللغة الكبيرة. تفرض هذه اللوائح متطلبات على مقدمي الخدمات، بما في ذلك ضرورة الالتزام بالقيم الاشتراكية الأساسية، وضمان أن المحتوى المنتج لا ينتهك القوانين أو يزعزع استقرار المجتمع. كما تُلزم الشركات بالحصول على تقييمات أمنية قبل إطلاق خدمات جديدة.

السيطرة على البيانات والرقابة

يعتبر التحكم في البيانات عنصراً حاسماً في استراتيجية الصين لتنظيم الذكاء الاصطناعي. تهدف اللوائح الصينية إلى ضمان أن البيانات المستخدمة لتدريب نماذج الذكاء الاصطناعي يتم جمعها وتخزينها ومعالجتها بشكل قانوني وآمن. كما أن هناك تركيزاً قوياً على استخدام الذكاء الاصطناعي لتعزيز الرقابة الاجتماعية والأمن القومي، وهو ما يثير قلقاً لدى بعض المراقبين الدوليين بشأن الخصوصية والحريات المدنية.

التحدي المتمثل في التوازن

تسعى الصين إلى تحقيق توازن بين تشجيع الابتكار التكنولوجي الذي يعد محركاً رئيسياً لنموها الاقتصادي، وبين الحاجة إلى فرض سيطرة الدولة وضمان التوافق مع الأهداف السياسية. قد يؤدي هذا التوازن إلى خلق بيئة تنظيمية معقدة، مع فرص للشركات التي تلتزم بالمتطلبات الصارمة، وتحديات للشركات الأجنبية التي قد تجد صعوبة في التنقل في هذه اللوائح.

"نهج الصين يوضح كيفية إمكانية استخدام التنظيم لتوجيه الذكاء الاصطناعي نحو أهداف محددة، سواء كانت اقتصادية أو اجتماعية. التحدي المستمر هو كيفية ضمان الشفافية والمساءلة ضمن هذا الإطار."
— الدكتور لي تشينغ، باحث في السياسات التكنولوجية

التحديات الرئيسية في وضع معايير حوكمة الذكاء الاصطناعي

إن وضع معايير فعالة وعالمية لحوكمة الذكاء الاصطناعي ليس بالمهمة السهلة، بل هو مليء بالتحديات المعقدة التي تتطلب حلولاً مبتكرة وتعاوناً دولياً حقيقياً. تتراوح هذه التحديات بين الطبيعة المتغيرة للتقنية نفسها، والمصالح الوطنية المتضاربة، والقضايا الأخلاقية المعقدة.

الطبيعة المتطورة للتقنية

الذكاء الاصطناعي يتقدم بسرعة فائقة، مما يجعل من الصعب على الأطر التنظيمية مواكبته. فما هو معيار اليوم قد يصبح قديماً غداً. هذا يتطلب نهجاً تنظيمياً مرناً وقابلاً للتكيف، يمكن تحديثه باستمرار لمواجهة التحديات الجديدة.

المصالح الوطنية المتضاربة

كل دولة تسعى لتعزيز قدراتها التنافسية في مجال الذكاء الاصطناعي، وغالباً ما تتعارض هذه المصالح. تتردد بعض الدول في تبني لوائح صارمة قد تعيق الابتكار المحلي، بينما تركز دول أخرى على حماية مواطنيها بغض النظر عن التأثير على الابتكار. هذا يخلق سباقاً نحو "التنظيم الأقل" في بعض الأحيان.

قضايا الشفافية والمساءلة

غالباً ما تعمل أنظمة الذكاء الاصطناعي كـ "صناديق سوداء"، مما يجعل من الصعب فهم كيفية اتخاذها للقرارات. وهذا يطرح تحديات كبيرة فيما يتعلق بالمساءلة، خاصة عندما تتسبب هذه الأنظمة في أضرار. ضمان الشفافية وتحديد المسؤولية عن أخطاء الذكاء الاصطناعي أمر حيوي.

البيانات والخصوصية

يعتمد الذكاء الاصطناعي بشكل كبير على البيانات. ويثير جمع واستخدام ومعالجة هذه البيانات قضايا خطيرة تتعلق بالخصوصية والأمن. يجب على الأطر التنظيمية إيجاد طرق لحماية بيانات الأفراد مع السماح بالاستخدام الضروري للبيانات لتطوير التقنيات.

المخاطر العالمية المشتركة

بعض مخاطر الذكاء الاصطناعي، مثل تطوير أسلحة ذاتية التشغيل أو انتشار معلومات مضللة على نطاق واسع، هي مخاطر عالمية تتطلب استجابة عالمية منسقة. قد يؤدي غياب التعاون إلى تفاقم هذه المخاطر.

التحديات الاقتصادية والاجتماعية

يجب أن تأخذ حوكمة الذكاء الاصطناعي في الاعتبار آثارها الاقتصادية والاجتماعية، مثل البطالة الناجمة عن الأتمتة، والحاجة إلى إعادة تدريب القوى العاملة. يجب أن تهدف اللوائح إلى توزيع فوائد الذكاء الاصطناعي بشكل عادل.

تحديد المسؤولية

عندما يخطئ نظام ذكاء اصطناعي، فمن هو المسؤول؟ المطور؟ المستخدم؟ الشركة التي قامت بنشره؟ تحديد المسؤولية القانونية والأخلاقية هو أحد أصعب التحديات.

أبرز التحديات في حوكمة الذكاء الاصطناعي
التحدي الوصف الأهمية
التطور التقني السريع صعوبة مواكبة اللوائح للتغييرات التكنولوجية المستمرة. يؤثر على فعالية القوانين.
المصالح الجيوسياسية الرغبة في التفوق التكنولوجي والاقتصادي تؤدي إلى تضارب في الأهداف التنظيمية. يعيق التعاون الدولي.
الشفافية والمساءلة صعوبة فهم كيفية عمل أنظمة الذكاء الاصطناعي وتحديد المسؤولية عند الخطأ. أساسي لضمان الثقة.
البيانات والخصوصية الموازنة بين الحاجة إلى البيانات والضرورة لحماية خصوصية الأفراد. حق أساسي للمواطنين.
المخاطر السيبرانية والأمنية إمكانية استخدام الذكاء الاصطناعي في هجمات سيبرانية معقدة أو في تطوير أسلحة مستقلة. تهديد للأمن العالمي.

الآفاق المستقبلية: نحو إطار عالمي متماسك

إن السباق نحو حوكمة الذكاء الاصطناعي هو سباق نحو تشكيل مستقبلنا. وبينما تتنافس القوى الكبرى على وضع القواعد، يظل الهدف الأسمى هو تحقيق إطار عالمي متماسك يضمن أن يكون الذكاء الاصطناعي قوة للخير. هذا يتطلب أكثر من مجرد لوائح؛ إنه يتطلب رؤية مشتركة وقيم عالمية.

أهمية التعاون الدولي

لا يمكن لدولة واحدة أن تضع جميع القواعد. إن طبيعة الذكاء الاصطناعي العابرة للحدود تتطلب تنسيقاً دولياً قوياً. يجب على المنظمات الدولية، مثل الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية (OECD)، أن تلعب دوراً أكبر في تسهيل الحوار وتشجيع الاتفاقيات المشتركة. يجب أن يتجاوز التعاون مجرد التنسيق التنظيمي ليشمل تبادل المعرفة، وتطوير قدرات الدول الأقل تقدماً، ووضع معايير أخلاقية عالمية.

التركيز على المبادئ المشتركة

بدلاً من التركيز على التفاصيل التنظيمية الدقيقة التي قد تتغير بسرعة، قد يكون من الأجدى الاتفاق على مبادئ مشتركة أساسية: مثل الشفافية، والإنصاف، والمساءلة، والسلامة، واحترام حقوق الإنسان. هذه المبادئ يمكن أن تشكل أساساً لأطر تنظيمية مختلفة على المستوى الوطني، مع الحفاظ على اتساق عالمي.

دور الخبراء والمجتمع المدني

يجب أن يشمل النقاش حول حوكمة الذكاء الاصطناعي أوسع شريحة ممكنة من المجتمع. يحتاج المطورون، وعلماء الاجتماع، وخبراء الأخلاق، والمجتمع المدني، والمواطنون العاديون إلى المشاركة في تشكيل مستقبل هذه التقنية. إن إشراك أصوات متنوعة يضمن أن تكون القواعد عادلة وشاملة، وتعكس احتياجات وتطلعات الجميع.

المستقبل يتطلب استباقية

إن تجاوز 100 مليار دولار في الاستثمار السنوي في الذكاء الاصطناعي يعني أن هذه التقنية لن تبطئ. يجب أن تكون الجهود التنظيمية استباقية وليست تفاعلية. يجب أن نتوقع التحديات المحتملة ونعمل على معالجتها قبل أن تتحول إلى أزمات. إن إرساء أسس قوية لحوكمة الذكاء الاصطناعي اليوم هو استثمار في مستقبل أكثر أماناً وازدهاراً للجميع.

"الذكاء الاصطناعي ليس مجرد أداة، بل هو قوة تشكيلية للمجتمع. إذا لم نقم بتوجيه هذه القوة بشكل صحيح الآن، فقد نواجه عواقب وخيمة. القيادة الأخلاقية والتعاون الدولي هما مفتاح النجاح."
— البروفيسور أحمد الهاشمي، مستشار في السياسات الرقمية

إن فهم المشهد المعقد للسباق العالمي نحو حوكمة الذكاء الاصطناعي يكشف عن أن المعركة ليست فقط للسيطرة على التكنولوجيا، بل لتحديد القيم والمعايير التي ستحكم عالمنا في العقود القادمة. الشفافية، والتعاون، والتركيز على رفاهية الإنسان يجب أن تكون في صميم هذه الجهود.

للمزيد من المعلومات حول جهود التنظيم الدولي للذكاء الاصطناعي:

ما هو قانون الذكاء الاصطناعي للاتحاد الأوروبي؟
هو تشريع شامل اقترحه الاتحاد الأوروبي لتنظيم أنظمة الذكاء الاصطناعي بناءً على مستوى المخاطر التي تشكلها، بهدف ضمان السلامة وحماية الحقوق الأساسية.
لماذا تركز الولايات المتحدة على نهج قائم على المخاطر بدلاً من تنظيم شامل؟
تهدف الولايات المتحدة إلى تشجيع الابتكار والحفاظ على ريادتها التكنولوجية، مع إدارة المخاطر من خلال آليات مرنة وقائمة على القطاعات، بدلاً من فرض قيود تنظيمية قد تعيق التطور السريع.
ما هي أبرز التحديات التي تواجه وضع معايير عالمية لحوكمة الذكاء الاصطناعي؟
تشمل التحديات الطبيعة المتطورة للتقنية، والمصالح الوطنية المتضاربة، وصعوبة تحقيق الشفافية والمساءلة، وقضايا الخصوصية والبيانات، والمخاطر العالمية المشتركة.
كيف يمكن تحقيق تعاون دولي فعال في مجال حوكمة الذكاء الاصطناعي؟
من خلال تسهيل الحوار في المنظمات الدولية، والاتفاق على مبادئ مشتركة (مثل الشفافية والإنصاف)، وتبادل المعرفة، وتطوير قدرات الدول الأقل تقدماً.