ما هو معيار ISO/IEC 42001؟
ISO/IEC 42001:2023 هو أول معيار دولي لنظام إدارة مخصص للذكاء الاصطناعي. نُشر في ديسمبر 2023، ويوفر متطلبات إنشاء وتنفيذ وصيانة وتحسين نظام إدارة الذكاء الاصطناعي (AIMS) داخل المنظمات التي تُطوّر أو تُقدّم أو تستخدم أنظمة الذكاء الاصطناعي.
على عكس إرشادات الذكاء الاصطناعي الطوعية التي انتشرت في السنوات الأخيرة، يوفر ISO 42001 إطارًا قابلًا للشهادة والتدقيق. يمكن للمنظمات الحصول على شهادة مستقلة تُثبت التزامها بالاستخدام المسؤول للذكاء الاصطناعي — وهي ميزة تنافسية متزايدة مع تشديد التنظيمات حول العالم.
إطار العمل: هيكل نظام إدارة الذكاء الاصطناعي
يتبع المعيار الهيكل المنسّق (Harmonised Structure) المعتمد في جميع معايير أنظمة الإدارة ISO، مما يسهّل دمجه مع ISO 27001 وISO 9001 ومعايير أخرى. يتضمن الهيكل:
- البنود 4-10: متطلبات نظام الإدارة المألوفة — سياق المنظمة والقيادة والتخطيط والدعم والعمليات وتقييم الأداء والتحسين.
- ملحق A: ضوابط مرجعية خاصة بالذكاء الاصطناعي تغطي سياسات الذكاء الاصطناعي والمساءلة وإدارة الموارد والموردين من الأطراف الثالثة وتأثير أنظمة الذكاء الاصطناعي.
- ملحق B: إرشادات التنفيذ التي تقدم تفاصيل إضافية حول كيفية تطبيق ضوابط ملحق A في سياقات مختلفة.
يتميز المعيار بتركيزه على تقييم الأثر كعنصر أساسي. يجب على المنظمات تقييم التأثيرات المحتملة لأنظمة الذكاء الاصطناعي على الأفراد والمجتمعات والبيئة — سواء كانت هذه التأثيرات إيجابية أو سلبية — قبل نشر هذه الأنظمة وأثناء تشغيلها.
إدارة مخاطر الذكاء الاصطناعي
يُقدّم ISO 42001 نهجًا منظمًا لإدارة المخاطر الخاصة بالذكاء الاصطناعي تتجاوز المخاطر الأمنية التقليدية. يجب على المنظمات تحديد ومعالجة:
- مخاطر التحيز والإنصاف: ضمان عدم تمييز أنظمة الذكاء الاصطناعي ضد مجموعات معينة وأن نتائجها عادلة وقابلة للتفسير.
- مخاطر الشفافية: قدرة المنظمة على شرح كيفية عمل أنظمة الذكاء الاصطناعي وكيفية اتخاذها للقرارات للأطراف المعنية.
- مخاطر الخصوصية: حماية البيانات الشخصية المستخدمة في تدريب وتشغيل نماذج الذكاء الاصطناعي.
- مخاطر الأمان والسلامة: ضمان أن أنظمة الذكاء الاصطناعي تعمل بشكل آمن ولا تُسبب ضررًا غير مقصود.
- مخاطر المتانة: ضمان أداء أنظمة الذكاء الاصطناعي بشكل موثوق في ظروف مختلفة ومقاومتها للتلاعب.
لا يفرض ISO 42001 تقنيات ذكاء اصطناعي محددة أو حدودًا للمخاطر. بدلاً من ذلك، يوفر إطارًا تحدد فيه المنظمة مدى تقبلها للمخاطر وتنفذ ضوابط مناسبة لسياقها.
العلاقة مع قانون الذكاء الاصطناعي الأوروبي
دخل قانون الذكاء الاصطناعي الأوروبي (EU AI Act) حيز التنفيذ في أغسطس 2024، ليصبح أول تشريع شامل لتنظيم الذكاء الاصطناعي في العالم. يُصنّف القانون أنظمة الذكاء الاصطناعي حسب مستوى المخاطر ويفرض التزامات متزايدة على الأنظمة عالية المخاطر.
على الرغم من أن ISO 42001 لا يُعادل الامتثال الكامل لقانون الذكاء الاصطناعي الأوروبي تلقائيًا، إلا أنه يوفر أساسًا متينًا يغطي العديد من المتطلبات:
- نظام إدارة المخاطر: يتطلب قانون الذكاء الاصطناعي الأوروبي نظام إدارة مخاطر للأنظمة عالية المخاطر — وهو ما يوفره ISO 42001 بشكل مباشر.
- حوكمة البيانات: يفرض القانون معايير جودة البيانات المستخدمة في التدريب. يتناول ISO 42001 إدارة البيانات كجزء من ضوابطه.
- التوثيق والشفافية: يتطلب كلاهما توثيقًا شاملًا وقدرة على شرح أنظمة الذكاء الاصطناعي.
- الرقابة البشرية: يؤكد كلاهما على الحاجة إلى إشراف بشري مناسب على أنظمة الذكاء الاصطناعي.
من المتوقع أن تعترف المفوضية الأوروبية بمعايير ISO كمعايير منسّقة بموجب قانون الذكاء الاصطناعي، مما قد يوفر “افتراض المطابقة” للمنظمات الحاصلة على شهادة ISO 42001.
من يحتاج إلى ISO 42001؟
المعيار مُصمم لأي منظمة تُطوّر أو تُقدّم أو تستخدم أنظمة ذكاء اصطناعي، بغض النظر عن حجمها أو قطاعها. تشمل الحالات الأكثر إلحاحًا:
- شركات التقنية التي تُطوّر منتجات وخدمات قائمة على الذكاء الاصطناعي.
- المؤسسات المالية التي تستخدم الذكاء الاصطناعي في تقييم المخاطر والكشف عن الاحتيال.
- مقدمو الرعاية الصحية الذين ينشرون أنظمة ذكاء اصطناعي في التشخيص والعلاج.
- الجهات الحكومية التي تستخدم أنظمة اتخاذ قرارات آلية تؤثر على المواطنين.
- أي منظمة تُقدّم خدمات للسوق الأوروبي وتخضع لقانون الذكاء الاصطناعي.
خطوات الحصول على شهادة ISO 42001
الخطوة 1: تحديد نطاق نظام الذكاء الاصطناعي. حدد أنظمة الذكاء الاصطناعي التي ستندرج ضمن نطاق نظام الإدارة. قد يشمل ذلك جميع أنظمة الذكاء الاصطناعي أو مجموعة فرعية محددة.
الخطوة 2: إجراء تقييم الأثر. قيّم التأثيرات المحتملة لكل نظام ذكاء اصطناعي على الأفراد والمجتمع. وثّق النتائج وحدد تدابير التخفيف.
الخطوة 3: إنشاء سياسة الذكاء الاصطناعي. طوّر سياسة شاملة تُحدد التزام المنظمة بالاستخدام المسؤول للذكاء الاصطناعي ومبادئ أخلاقيات الذكاء الاصطناعي.
الخطوة 4: تنفيذ ضوابط ملحق A. طبّق الضوابط المناسبة من ملحق A بناءً على تقييم المخاطر وتقييم الأثر.
الخطوة 5: التدقيق الداخلي والمراجعة. أجرِ تدقيقًا داخليًا ومراجعة إدارية لضمان فعالية النظام قبل تدقيق الشهادة.
كيف تدعم BALTUM منظمتك
تقدم BALTUM برامج شاملة لمساعدة المنظمات في الحصول على شهادة ISO 42001، تشمل:
- تقييم الجاهزية: تحليل شامل لممارسات الذكاء الاصطناعي الحالية مقابل متطلبات ISO 42001.
- تقييم أثر الذكاء الاصطناعي: دعم في إجراء تقييمات الأثر المطلوبة وتوثيق النتائج.
- بناء نظام الإدارة: المساعدة في تطوير السياسات والإجراءات والوثائق المطلوبة.
- دمج مع ISO 27001: للمنظمات الحاصلة بالفعل على شهادة ISO 27001، نساعد في الدمج الفعال لنظام إدارة الذكاء الاصطناعي.
مع تسارع تنظيم الذكاء الاصطناعي حول العالم، تُمثّل شهادة ISO 42001 استثمارًا استراتيجيًا في المستقبل. ابدأ اليوم لتكون في طليعة المنظمات المسؤولة في مجال الذكاء الاصطناعي.