عندما شرع المنظّمون في مناقشة إدخال تعديلات على قانون الذكاء الاصطناعي للاتحاد الأوروبي لعام 2024، بعد أشهر قليلة فقط من إقراره، شكّل ذلك مؤشّراً واضحاً على عمق التحدّيات التنظيمية التي يطرحها هذا القطاع. فقد أظهر هذا التشريع الشامل، وهو الأوّل من نوعه عالمياً، أنّ حتى الجهات التنظيمية ذات الخبرة الطويلة، مثل الاتحاد الأوروبي، تعاني صعوبة في مواكبة التسارع الهائل في تطوّر تقنيّات الذكاء الاصطناعي، وترزح تحت وطأة ضغوط سياسية وتجارية مكثّفة، ومن دون القدرة على بلورة أطر تنظيمية واقعية وفعّالة. وبالنسبة إلى المراقبين في الخليج، بدت هذه التجربة بمثابة جرس إنذار يسلّط الضوء على الحاجة الملحّة إلى تحقيق توازن دقيق بين تحفيز الابتكار وإدارة المخاطر.
وقد باتت صناعة الذكاء الاصطناعي تشكّل ركناً أساسياً في إستراتيجيات الابتكار والتنويع الاقتصادي في الدول الخليجية، حيث تستثمر بلدان مثل المملكة العربية السعودية والإمارات العربية المتّحدة وقطر بكثافة في بنية الذكاء الاصطناعي التحتية وقدراته، مع السعي إلى تثبيت مواقعها كنقاط ارتكاز رئيسة ضمن شبكة الذكاء الاصطناعي العالمية. غير أنّ هذا القطاع الناشئ، على الرغم من زخمه المتسارع، هو في جوهره سباق تنافسي محموم، لا يرغب أي طرف فيه في التخلّف عن الركب أو تقييد طموحاته، وفي الوقت نفسه يفتقر الجميع إلى رؤية واضحة عن وجهته النهائية أو انعكاساته المحتملة على الاقتصادات الوطنية، وأسواق العمل، والبنى الاجتماعية على المدى المتوسط والبعيد.
وانطلاقاً من ذلك، يُفترض أن تتّسم الأطر التنظيمية بالمرونة الكافية لتمكين النمو وتوفير فرص تحقيق ميزة تنافسية. إلّا أنّ عدم اليقين، وضغوط السوق، واستمرار الجدل بشأن أيّ جوانب الذكاء الاصطناعي تستوجب كبح جماحها وضبطها، كلّها عوامل تجعل من تحقيق وضوح تنظيمي مهمّة بالغة الصعوبة. ولا يُعدّ هذا الإرباك التنظيمي محض صدفة، بل يعكس عجزاً بنيوياً في النظم السياسية والاقتصادية القائمة عن الاستجابة السريعة والفعّالة ومواكبتها لتقنيات تتطوّر بوتيرة تفوق قدراتها المؤسّسية. وعليه، ستظلّ حوكمة الذكاء الاصطناعي مجالاً متنازعاً عليه وهشّاً طالما لم تتوافق القوى الدافعة للتطوير مع متطلّبات المساءلة.
لحظة الذكاء الاصطناعي في الخليج
تُعدّ حوكمة الذكاء الاصطناعي مسألةً ملحّةً في منطقة الخليج، في سياق يتّسم بتقاطع الانتشار السريع لهذه التقنيات مع تركّز السلطة السياسية والمؤسّسية. فقد رسخّت إستراتيجيات وطنية، مثل الإستراتيجية الوطنية للذكاء الاصطناعي في قطر 2019، والإستراتيجية الوطنية للذكاء الاصطناعي في الإمارات 2031، والإستراتيجية الوطنية للبيانات والذكاء الاصطناعي في السعودية، أهدافاً طويلة الأمد تهدف إلى ضمان الريادة الإقليمية في بنية الذكاء الاصطناعي التحتية وخدماته. كما تشير المؤسّسات المستحدثة في هذا المجال، إلى جانب الاستثمارات التي تُقدَّر بمليارات الدولارات، إلى التزام سياسي واضح بتوظيف الذكاء الاصطناعي كأداة للتحوّل اقتصادي طويل الأمد والتحديث الهيكلي.
وقد أحدث الذكاء الاصطناعي بالفعل تحوّلات ملموسة في قطاعات محورية من اقتصادات الخليج، تشمل الطاقة، والنقل، والتعليم، والرعاية الصحية. ففي قطاع الخدمات المالية، يُوظّف الذكاء الاصطناعي لتعزيز آليّات تقييم المخاطر والامتثال التنظيمي، بما يدعم الثقة الاقتصادية ويعزّز الشفافية المؤسّسية. كذلك، تُبرز الإدارة العامة مثالاً واضحاً على الأثر العملي لهذه التقنيات، من خلال اعتمادها في تشغيل روبوتات المحادثة، والتحليلات التنبؤية، وحلول المدن الذكية.
وقد أتاح هذا التقدّم اعتماد نماذج حوكمة مرنة في دول خليجية سمحت بالنشر السريع لتطبيقات الذكاء الاصطناعي وابتكاراته. غير أنّ التوسّع المتسارع في تبنّي هذه التقنيات يرافقه تصاعد في مستويات عدم اليقين بشأن آثارها بعيدة المدى، ولا سيّما في ما يتصل بطبيعتها بوصفها تكنولوجيا مُربِكة، وما قد يترتب عليها من تداعيات على قدرة الدول على تحقيق أهدافها وخططها الوطنية المعلنة.
لماذا تتعثّر الحوكمة
تُشكّل ثلاثة عوائق بنيوية أبرز التحدّيات التي تواجه حوكمة الذكاء الاصطناعي، سواء في منطقة الخليج أو على المستوى العالمي. يتمثّل أوّل هذه العوائق في طبيعة تقنيات الذكاء الاصطناعي الغامضة، إلى جانب الفجوة المعرفية التي تفصل غالباً بين هذه التقنيات وصانعي السياسات. فالذكاء الاصطناعي تكنولوجيا سلوكية لا تعمل دائماً وفق منطق ثابت أو قواعد يمكن التنبؤ بمخرجاتها مسبقاً. وحتى التطبيقات المصمَّمة بنوايا إيجابية قد تفضي، عند نشرها على نطاق واسع أو مع تطوّرها بمرور الزمن، إلى نتائج غير مقصودة أو ضارّة. وبناءً عليه، يُتوقّع من الجهات التنظيمية ضبط أنظمة غامضة ولا يمكن التنبؤ بها، في حين لا تزال عملية تقييم آثارها بعيدة المدى مهمةً عصيةً.
يرتبط العائق الثاني بوتيرة التطوّر السريعة لهذه التكنولوجيا. فبينما لا تتجاوز دورات تطوير أنظمة الذكاء الاصطناعي بضعة أشهر، تُصاغ الأطر التنظيمية عادة لتغطّي سنوات. وتبدو دورات السياسات العامة التقليدية، التي تشمل التشاور مع أصحاب المصلحة، وصياغة السياسات، وتنفيذها، ثم تقييمها، غير ملائمة بطبيعتها لمتطلّبات تنظيم مجال الذكاء الاصطناعي. وفي هذا السياق، تواجه حكومات الخليج معضلة موازنة صعبة بين التحرّك السريع، مع ما يحمله ذلك من مخاطر صياغة أطر تنظيمية سطحية، وبين إرجاء التدخّل بما قد يفقد السياسات جدواها ومواكبتها لمجال الذكاء الاصطناعي.
أما العائق الثالث، فيكمن في أنّ أنظمة تنظيم الذكاء الاصطناعي لا تعمل بمعزل عن غيرها. فقضايا الأمن، والخصوصية، وحماية المستهلك، وغيرها من الإشكاليات العابرة للحدود والقطاعات، تتطلّب تنسيقاً متعدّد المستويات. غير أنّ هذا التنسيق يظلّ بعيد المنال في ظلّ غياب إطار حوكمة ذكاء اصطناعي دولي موحّد. ومع ذلك، لا تتيح الطبيعة المتسارعة للتطوّر التكنولوجي مجالاً لإيقاف المسار بانتظار توافق دولي شامل.
وفي السياق الخليجي، تتقاطع هذه التحدّيات البنيوية مع معيقات محلّية خاصة. إذ لا تنسجم أنماط الحوكمة المركزية السائدة دائماً مع احتياجات قطاع تكنولوجي يتسم بطبيعته بالمرونة والتعقيد وصعوبة كبح جماحه. كما أنّ طموحات الدول الخليجية في تصدّر مشهد الذكاء الاصطناعي العالمي تصطدم بقلّة الكفاءات البشرية المتخصّصة وبقيود البنية التحتية، ما يعزّز الاعتماد على الموارد والاستثمارات والخبرات الخارجية.
ضغوط الاقتصاد السياسي
ساهم تنامي انخراط شركات الذكاء الاصطناعي في عمليات الحوكمة في إبطاء مسارات تطوير السياسات، كما يظهر بوضوح في تجربة الاتحاد الأوروبي. وتنسحب هذه الديناميات على سياقات عالمية أخرى، بما في ذلك منطقة الخليج. إذ تمارس شركات التكنولوجيا الكبرى ضغوطاً متزايدةً على صُنّاع القرار لدفعهم نحو تبنّي أطر تنظيمية وسياسات تخدم مصالحها، لا بالضرورة مصالح المستهلكين أو الاقتصاد ككلّ. وغالباً ما تُقدَّم وعود الأرباح المستقبلية والاختراقات التكنولوجية بوصفها أولوية، في مقابل التقليل من شأن المخاطر ومقتضيات المساءلة. كما يتيح النفوذ السياسي والموارد المالية لهذه الشركات البقاء خطوة متقدّمة على الجهات التنظيمية، من خلال تمويل وتطوير أنظمة جديدة قبل أن تتبلور لدى المنظّمين القدرة على استيعاب آثارها وتداعياتها كاملة.
في الدول الخليجية، تتّخذ هذه الإشكاليات بعداً أكثر تعقيداً بفعل التداخل الوثيق بين مصالح الشركات ومصالح الدولة، وينطوي هذا على مخاطر فريدة. فالحكومات الخليجية لا تكتفي بالشراكة مع شركات تكنولوجيا عالمية فحسب، بل تستثمر أيضاً بكثافة في شركات تكنولوجية مدعومة من الدولة. فعلى سبيل المثال، أسّست قطر شركة «قاي» (Qai) تحت مظلة جهاز قطر للاستثمار، وخصّصت مليارات الدولارات لشراكات إستراتيجية في بنية الذكاء الاصطناعي التحتية، تزامناً مع ضخّ استثمارات كبرى مماثلة في دول خليجية أخرى. وتجسّد هذه الخطوات نهجاً إستراتيجياً في تسخير موارد الدولة لخدمة هذا القطاع. غير أنّ التداخل الوثيق بين شراكة القطاعين العام والخاص، مقروناً بحدّة المنافسة الإقليمية، يجعل من أيّ محاولة لتنظيم قطاع الذكاء الاصطناعي عرضة لإحداث توتّرات داخل هذه الشراكات الإستراتيجية.
ولذلك، يبدي صانعو السياسات في الخليج حذراً إزاء تبنّي قواعد تنظيمية صارمة قد تدفع الاستثمارات في الذكاء الاصطناعي إلى التوجّه نحو أسواق بديلة. ومن هنا، تُصاغ الأطر التنظيمية تحت ضغط تحقيق توازن دقيق بين متطلّبات الرقابة والحوكمة من جهة، والحفاظ على تدفّق التكنولوجيا والاستثمارات من جهة أخرى، في قطاع بات وثيق الارتباط بالأهداف الاقتصادية الوطنية.
وفي سياق عالمي يتحوّل فيه الذكاء الاصطناعي إلى أحد مصادر القوة الوطنية، تُدرَك الحوكمة على نحو متزايد بوصفها مسألة أمنية. فالدول القادرة على توظيف الابتكار في هذا المجال تكتسب أدوات نفوذ اقتصادي وسياسي، فيما تمنحها المساهمة في وضع المعايير المنظّمة للتكنولوجيا قدرة إضافية على تعزيز حضورها في ميدان القوة الناعمة. وفي منطقة المنافسة فيها محتدمة مثل الخليج، غالباً ما تتقدّم اعتبارات ترسيخ الريادة الإقليمية على المخاوف المرتبطة بسلامة الذكاء الاصطناعي. وتشمل هذه المخاوف نقاط ضعف بنيوية ناجمة عن الاعتماد المُفرط على شركات تكنولوجيا أجنبية تتولّى تشغيل مراكز البيانات أو توفير العتاد والتقنيات الأساسية لبنية الذكاء الاصطناعي التحتية. وبالنسبة إلى الدول الخليجية التي تتحرّك ضمن تحالفات جيوسياسية معقّدة، فإنّ الضغوط المرتبطة بالحفاظ على الوصول إلى التكنولوجيا والتحرّر من التبعية تشكّل سياسات الذكاء الاصطناعي بقدر ما تفعل الاعتبارات الداخلية الأخرى.
فخّ التوقيت
يواجه صانعو القرار في الخليج معضلة شائعة على المستوى العالمي: هل ينبغي الإسراع في سنّ أطر الذكاء الاصطناعي التنظيمية استناداً إلى معرفة لا تزال غير مكتملة، أم التريّث وترك القطاع يتطوّر بمعزل عن معايير المساءلة والشفافية اللازمة؟ ينطوي كلا الخيارين على مخاطر معتبرة. فالتحرّك المبكر قد يحدّ من نمو القطاع ويؤخّر خطط التنويع الاقتصادي الطموحة، في حين لا يقلّ التراخي خطورةً من حيث تداعياته طويلة الأمد.
وتضيق نافذة الفرص المتاحة لإرساء أُطر حوكمة الذكاء الاصطناعي بوتيرة متسارعة. فبمجرّد تغلغل أنظمة الذكاء الاصطناعي في بنى الدول الخليجية التحتية الحيوية وعملياتها التجارية، يصبح تعديل أطر الحوكمة أمراً شاقاً. وإلى جانب ذلك، تتأثّر اعتبارات الحوكمة بحقيقة أنّ الاستثمارات، وبناء الشراكات، وتنمية الكفاءات البشرية في مجال الذكاء الاصطناعي يجب أن تُحسم في الحاضر، لضمان القدرة التنافسية على المدى الطويل.
ولا تنفرد الدول الخليجية بهذه الهواجس. فالمخاوف من التأخير أو من أخطاء التقدير في تنظيم الذكاء الاصطناعي تطال مختلف الدول الساعية إلى ضبط هذا القطاع. وتشمل مخاطر التحرّك السريع احتمالات الإخفاقات المنهجية، أو تعميق الاعتماد على مزوّدي التكنولوجيا الأجانب والأنظمة الرقمية الحيوية. غير أنّ الحاجة الملحّة في الخليج إلى تنويع اقتصاده وتسريع تحوّله بعيداً عن الاقتصاد الريعي النفطي ترفع حدّة المخاطر. ففي هذا السياق، تتقاطع وعود اقتصاد ما بعد النفط القائم على التكنولوجيا مع تحدّيات حوكمية راسخة، ناجمة عن النقص المزمن في الكفاءات المتخصّصة والقيود المفروضة على القدرات المؤسّسية.
التداعيات العالمية
إنّ طبيعة حوكمة الذكاء الاصطناعي البنيوية تعني أنّ العقبات التي تواجهها الدول الخليجية لا تقتصر عليها وحدها، بل تنطبق أيضاً على دول أخرى تسعى إلى تنظيم هذا المجال. وتُظهر التجارب المتعثّرة لكلٍّ من الاتحاد الأوروبي والدول الخليجية أنّ الفجوات التنظيمية لا تعود في المقام الأول إلى الجمود السياسي، بقدر ما تنبع من الغموض الملازم لتقنيات الذكاء الاصطناعي وعدم قابليتها للتنبؤ.
يُدرك صانعو السياسات حجم الرهانات والمخاطر المرتبطة بتنظيم قطاع الذكاء الاصطناعي، لكن قدرتهم على التعامل مع إشكالية مواكبة تطوّر الذكاء الاصطناعي وغياب التوافق العابر للحدود تظلّ محدودة. وفي ظل غياب مؤسّسات دولية قادرة على الاضطلاع بدور جهات تنظيمية مُقيِّدة ومحايدة، تُترك الدول لتدبير شؤون الحوكمة وهي ترزح تحت وطأة ضغوط تنافسية متزايدة.
ويتطلّب تنظيم الذكاء الاصطناعي مستويات عالية من التنسيق وموازنة دقيقة بين المنافع المحتملة والمخاطر المصاحبة، وهي مهمّة يصعب تحقيقها في إطار البُنى السياسية والاقتصادية السائدة حالياً. ومن ثمّ، يُرجَّح أن تظلّ حوكمة الذكاء الاصطناعي موضع تنازع، وأن تتّسم بالتقطّع وعدم الاستقرار، مع ما يترتّب على ذلك من تداعيات تتعلّق بالمساءلة، والأمن، وحماية الخصوصية.
وتُبرز حالة الدول الخليجية التي تتنافس اليوم على تصدّر مشهد الذكاء الاصطناعي، جملةً من العوائق البنيوية العميقة. فالتوتّر القائم بين السعي إلى منح شركات التكنولوجيا الكبرى هامشاً واسعاً من الحرية لتحقيق الأهداف الوطنية، من جهة، ومخاطر فقدان السيطرة على قطاع يتطوّر بوتيرة متسارعة، من جهة أخرى، هو توتّر بنيوي لا يُتوقّع أن يُحسم سريعاً أو بسهولة.