من الجودة إلى الحوكمة الذكية: كيف يصوغ ISO 42001 مستقبل الاقتصاد العالمي

بقلم: د. خالد عيتاني


مقدمة: اقتصاد جديد يحتاج إلى حوكمة جديدة

يشهد العالم اليوم ثورة غير مسبوقة في الاعتماد على الذكاء الاصطناعي (AI) في القطاعات الاقتصادية كافة، من المصارف والتأمين إلى سلاسل الإمداد والتصنيع والخدمات الحكومية. لكن هذا التسارع ترافق مع تحديات عميقة: أخطاء خوارزمية، تحيّزات غير مرئية، تهديدات أمنية، وانتهاكات خصوصية — كلها تهدد الثقة في السوق وتعرض المؤسسات لمخاطر قانونية ومالية جسيمة.
استجابةً لذلك، أصدرت المنظمة الدولية للتقييس (ISO) واللجنة الكهروتقنية الدولية (IEC) معيارًا ثوريًا جديدًا في ديسمبر 2023: ISO/IEC 42001:2023، وهو أول نظام إدارة في العالم مخصص لحوكمة الذكاء الاصطناعي على مستوى المؤسسات.

من أين بدأ كل شيء؟ نبذة تاريخية عن معايير ISO

  • 1947: تأسست منظمة ISO في جنيف بعد الحرب العالمية الثانية لتوحيد المعايير الصناعية بين الدول وتعزيز التجارة العالمية.
  • 1987: إصدار معيار ISO 9001 لإدارة الجودة، ليكون نقطة التحول من مراقبة المنتجات إلى إدارة العمليات المؤسسية بالكامل.
  • 1996–2005: توسّع مفهوم أنظمة الإدارة ليشمل البيئة (ISO 14001) وأمن المعلومات (ISO/IEC 27001) وإدارة المخاطر (ISO 31000).
  • 2012: اعتماد هيكل موحد (Annex SL) لجميع أنظمة الإدارة يتألف من 10 بنود ثابتة (السياق، القيادة، التخطيط، الدعم، التشغيل، التقييم، التحسين…).

أدى ذلك إلى نقل تركيز المعايير من “ضبط المنتج” إلى “حوكمة المؤسسة بأكملها” — وهو جوهر التحول الذي مهّد الطريق لـ ISO 42001.

صعود مفهوم الحوكمة داخل منظومة ISO

منذ 2010 بدأت ISO تركّز على الحوكمة والمسؤولية بدل الاكتفاء بالجوانب التقنية، فظهرت معايير تمهيدية للذكاء الاصطناعي، منها:

  • ISO/IEC 38500 (2008) لحوكمة تقنية المعلومات
  • ISO/IEC 38507 (2022) لقرارات مجالس الإدارة في استخدام الذكاء الاصطناعي
  • ISO/IEC 22989 (2022) للمفاهيم والمصطلحات
  • ISO/IEC 23894 (2023) لإدارة المخاطر في الذكاء الاصطناعي
  • ISO/IEC 42005 (2023) لتقييم الأثر المجتمعي
  • ISO/IEC 5338 (2023) لإدارة دورة الحياة الكاملة لأنظمة الذكاء الاصطناعي

🔹 كانت هذه المعايير اختيارية وغير متكاملة، مما عزز الحاجة إلى إطار موحّد رسمي وقابل للاعتماد.

الحاجة إلى إطار موحد لإدارة الذكاء الاصطناعي

ابتداءً من 2018، أدّى انفجار استخدام الذكاء الاصطناعي (خصوصًا النماذج التوليدية والواسعة LLMs) إلى:

  • غياب آليات موحدة للمساءلة والشفافية
  • تزايد القضايا القانونية المرتبطة بالقرارات الآلية
  • ضغوط تشريعية عالمية (مشروع قانون الاتحاد الأوروبي للذكاء الاصطناعي EU AI Act)
  • مخاطر سمعة وخصوصية وأمن معلومات ضخمة

عام 2021 شكّلت ISO وIEC اللجنة الفنية المشتركة JTC 1/SC 42 المكلفة بوضع أول نظام إدارة رسمي للذكاء الاصطناعي (AI Management System – AIMS)، على غرار ISO 9001 و27001، ليكون متكاملاً وملزِمًا وقابلًا للشهادة.

 ISO/IEC 42001:2023 —  أول نظام إدارة عالمي للذكاء الاصطناعي

صدر المعيار في ديسمبر 2023 ليكون نقطة تحول كبرى.
يهدف إلى تمكين المؤسسات من تطوير واستخدام وإدارة أنظمة الذكاء الاصطناعي بشكل آمن، موثوق، ومسؤول مع تحقيق الامتثال التشريعي الكامل.

يرتكز على أربعة محاور رئيسية:

  1. حوكمة الذكاء الاصطناعي: سياسات أخلاقية وتنظيمية واضحة، لجان إشراف متعددة الوظائف، ومساءلة إدارية عليا.
  2. إدارة دورة الحياة: من التصميم والتطوير إلى التشغيل، التحديث، والتخلص الآمن من البيانات والنظام.
  3. تقييم المخاطر والأثر: تحليل تقني وأخلاقي واجتماعي واقتصادي لأنظمة الذكاء الاصطناعي قبل النشر.
  4. ضوابط التخفيف: تدابير تقنية وتنظيمية لمعالجة المخاطر المحددة وتقليل آثارها السلبية.

البنية الإلزامية للمعيار (Annex SL Structure)

يُبنى ISO 42001 على نفس البنية الموحدة لجميع معايير الإدارة ويتألف من عشرة بنود إلزامية:

  • السياق المؤسسي: تحليل البيئة الداخلية والخارجية والأطراف المعنية ونطاق النظام.
  • القيادة: التزام الإدارة العليا وتعيين مسؤول امتثال وإنشاء لجنة ذكاء اصطناعي.
  • التخطيط: تحديد المخاطر والفرص ووضع أهداف واضحة.
  • الدعم: توفير الموارد، بناء القدرات، إدارة الوثائق والبيانات.
  • التشغيل: إدارة دورة حياة الأنظمة الذكية كاملةً.
  • تقييم الأداء: تدقيق داخلي ومؤشرات قياس أداء.
  • التحسين المستمر: معالجة حالات عدم المطابقة وتحديث النظام بانتظام.

التحديات العملية في التطبيق

  • غياب استراتيجية ذكاء اصطناعي واضحة.
  • ضعف جودة البيانات وتكاملها.
  • نقص التنسيق بين الفرق المتعددة الوظائف.
  • مقاومة التغيير الثقافي والإداري.
  • فجوة في الكفاءات المتخصصة بالذكاء الاصطناعي والأخلاقيات التقنية.

استراتيجيات تجاوز التحديات

  • صياغة رؤية استراتيجية واضحة للذكاء الاصطناعي.
  • الاستثمار في حوكمة البيانات كبنية تحتية.
  • تشكيل لجان ذكاء اصطناعي متعددة الاختصاصات.
  • متابعة القوانين الدولية الناشئة كقانون الاتحاد الأوروبي للذكاء الاصطناعي (EU AI Act).
  • بناء ثقافة الثقة والشفافية والتغيير.
  • تدريب ورفع مهارات الفرق.
  • الالتزام بعمليات رقابة وتحسين مستمر.

الفوائد الاقتصادية والاستراتيجية لاعتماد ISO 42001

  • الامتثال للتشريعات العالمية وخفض المخاطر القانونية.
  • تعزيز الثقة العامة والسمعة المؤسسية.
  • ميزة تنافسية واضحة في السوق.
  • تسريع الابتكار وتقصير دورة تطوير المنتجات.
  • جذب استثمارات وشراكات جديدة.
  • تسهيل الدخول في المناقصات والعطاءات الحكومية الكبرى.

الوضع العالمي حتى 2025

  • الاتحاد الأوروبي: بدأ تطبيق قانون الذكاء الاصطناعي تدريجيًا، وسيصبح إلزاميًا بالكامل بحلول 2026، وسيُستخدم ISO 42001 كإثبات امتثال.
  • كندا واليابان: أطلقتا برامج اعتماد رسمية مبنية على المعيار.
  • الإمارات والسعودية: تعملان على دمجه في الأطر الحكومية الوطنية.
  • شركات كبرى (Microsoft، IBM، Siemens، Hitachi) بدأت بالفعل تطبيقه داخليًا.

تحليل اقتصادي ختامي

يمثّل ISO/IEC 42001:2023 تتويجًا لمسار تطوّر استمر أكثر من 35 عامًا في معايير الإدارة، وينقل الذكاء الاصطناعي من مجال تقني تجريبي إلى نظام حوكمة مؤسسي متكامل.
في بيئة تنظيمية عالمية تزداد صرامة، لم يعد اعتماد هذا المعيار خيارًا، بل أصبح ضرورة اقتصادية وقانونية وأخلاقية للمؤسسات الطامحة للنمو الآمن والمستدام في عصر الاقتصاد القائم على الذكاء الاصطناعي.

توصيات مستقبلية لتعزيز حوكمة الذكاء الاصطناعي وفق ISO 42001

  • دمج ISO/IEC 42001 في التشريعات الوطنية كإطار إلزامي لإثبات الامتثال القانوني لاستخدامات الذكاء الاصطناعي في القطاعات الحيوية.
  • اعتماد المعيار كجزء من الاستراتيجية المؤسسية عبر إنشاء لجان حوكمة متعددة التخصصات وتقييم الأثر الأخلاقي والاجتماعي قبل نشر أي نظام ذكاء اصطناعي.
  • ربط التمويل والاستثمار بامتلاك نظام إدارة ذكاء اصطناعي معتمد وإدراج مؤشرات حوكمة الذكاء الاصطناعي ضمن تقارير الاستدامة وESG.
  • تطوير دلائل تطبيق قطاعية متخصصة وتدريب خبراء حوكمة الذكاء الاصطناعي لتسريع وتوحيد الاعتماد العالمي للمعيار.
  • جعل حوكمة الذكاء الاصطناعي عنصرًا محوريًا في الاقتصاد الرقمي لضمان الثقة، الامتثال، والاستدامة في الأسواق المستقبلية.

📚 المراجع العلمية

  1. ISO/IEC 42001:2023 — Information Technology — Artificial Intelligence — Management System. International Organization for Standardization (ISO), Geneva, 2023.
  2. ISO/IEC 38507:2022 — Information technology — Governance of IT — Governance implications of the use of artificial intelligence by organizations.
  3. ISO/IEC 22989:2022 — Artificial Intelligence — Concepts and terminology.
  4. ISO/IEC 23894:2023 — Artificial Intelligence — Risk management guidelines.
  5. ISO/IEC 42005:2023 — Artificial Intelligence — Assessment of the impacts of AI systems.
  6. ISO/IEC 5338:2023 — Artificial Intelligence — AI system life cycle processes.
  7. European Commission — EU Artificial Intelligence Act (Regulation (EU) 2024/1689), Brussels, 2024.
  8. British Standards Institution (BSI) — White Paper: “Implementing ISO/IEC 42001 in Practice”, London, 2024.
  9. DNV — “ISO/IEC 42001 Certification: Building Trust in AI Systems”, Technical Report, 2024.
  10. OECD — “Governance Principles for Trustworthy AI”, Paris, 2023.
x

‎قد يُعجبك أيضاً

أجرى سلسلة زيارات في طرابلس برفقة علي محمود العبد الله

السفير الصيني تشن تشواندونغ: شمال لبنان يمكن أن يلعب دورًا مهمًّا في الاقتصاد اللبناني وإعادة ...

الحاج يكشف عن خطة شاملة لإخراج قطاع الاتّصالات من سنوات الإهمال والانتقال من النطاق الضيّق إلى النطاق العريض

كشف وزير الاتّصالات شارل الحاج عن خطة شاملة لإخراج قطاع الاتّصالات من سنوات الإهمال، والانتقال ...

مرقص في تكريم نقابة مصممي الغرافيك الإعلام اللبناني: نحو خطوات تكاملية بين الإعلام والغرافيك

اقامت  نقابة مصممي الغرافيك  احتفالا تكريميا   للإعلام اللبناني برعاية وزير الإعلام المحامي د. بول ...