التجارب على خوارزميات التدقيق والذكاء الاصطناعي في الحكومة الهولندية

المصدر: أدوبي ستوك إيمجز

من إعداد كولن فان نوردت دكتوراه، وإستير ميهير لايسن دكتوراه، ديوان المحاسبة الهولندي

الأساس المنطقي لخوارزميات التدقيق والذكاء الاصطناعي

يتيح تطبيق الخوارزميات وتكنولوجيا الذكاء الاصطناعي في الحكومة العديد من الفرص لتحسين العمليات الحكومية، وتقديم الخدمات العامة، ومشاركة المواطنين، والمساهمة في حل التحديات الاجتماعية. نتيجةً لذلك، أصبح هذا النوع من التكنولوجيا على نحو متزايد جزءاً أكثر أهمية من طريقة عمل الحكومات. ومع ذلك، ينطوي إدخال الذكاء الاصطناعي أيضاً على مخاطر إذا لم يتم نشره بشكل مسؤول. على سبيل المثال، قد يحتوي الذكاء الاصطناعي على تحيّزات تؤدّي إلى نتائج تمييزية أو قد لا تكون البيانات الشخصية محميّة بشكلٍ كافٍ. وقد يؤدي الافتقار إلى الشفافيّة عند استخدام التكنولوجيا إلى تحديات في مجال الحوكمة.

عملية تدقيق الخوارزميات

في عام 2021، وضع ديوان المحاسبة الهولندي إطار تدقيق للخوارزميات. ويغطّي الإطار كلاً من الأنظمة البسيطة القائمة على القواعد والأنظمة الأكثر تعقيداً القائمة على التعلم الآلي. وهو إطار متعدِّد التخصصات، بما في ذلك المعايير المتعلِّقة بالحوكمة والخصوصيّة والنموذج والبيانات، فضلاً عن الضوابط العامة لتكنولوجيا المعلومات. وفي مقال سابق في هذه المجلة، وصفنا الأساس المنطقي والخلفيّة وراء إنشاء الإطار.

في عام 2022، استخدمنا إطار التدقيق هذا للتدقيق في تسع خوارزميات تستخدمها الحكومة الهولندية. ووجدنا أنَّ 3 من أصل 9 خوارزميات مدقّقة تلبّي جميع المتطلبات الأساسية. أما السِّتة المتبقية فلم تفعل ذلك وعرّضت الحكومة لمخاطر مختلفة: من السيطرة غير الملائمة على أداء الخوارزمية وتأثيرها إلى التحيّز، وتسريب البيانات والوصول غير المصرح به.

ومنذ عام 2022 فصاعداً، نقوم بتدقيق الذكاء الاصطناعي كجزء من عمليات التدقيق السنوية لدينا. وهذا يسمح لنا بتكوين فهم أفضل لما تقوم به هذه الخوارزميات حقّاً، وكيف تضمن الحكومة الحكم على نشرها وكيف يتم تجنّب العواقب السلبية. وتتضمَّن هذه المقالة الخبرات العملية في القيام بذلك وتقدم العديد من الدروس المستفادة.

التقييم التدريجي لـلذكاء الاصطناعي

نحن نشكِّل رأينا في استخدام الخوارزميات وتقنيات الذكاء الاصطناعي على النحو التالي:

  1. فعاليّة الضوابط: نقوم بمراجعة فعاليّة جميع الضوابط المدرجة في إطار التدقيق لدينا استناداً إلى الوثائق المقدّمة والمقابلات التي أجريت. ويجري تقييم عنصر التحكُّم على أنَّه “فعّال” أو “فعّال جزئياً” أو “غير فعّال”.
  2. المخاطر المتبقية: نقوم بتصنيف المخاطر المتبقية على أنَّها متدنية أو متوسطة أو عالية. وتكون المخاطر المتبقية عالية دائماً إذا كانت الضوابط غير فعّالة. ويمكن تخفيض تصنيف المخاطر إلى متوسطة أو متدنية استناداً إلى السياق و/أو التدابير التكميلية الأخرى.
  3. الخلاصة: نقوم بعد ذلك بتشكيل استنتاجنا وتحديد ما إذا كان استخدام الخوارزمية يتوافق أم لا مع المتطلبات المنصوص عليها في إطار التدقيق لدينا.
  4. الرأي النهائي: في حال عدم امتثال الخوارزمية لإطار التدقيق، نقرِّر ما إذا كنّا سنخصِّص اعتباراً أو قصوراً للوزير. وهذا رأي شامل.

التجارب العملية مع خوارزميات التدقيق

في حين أنَّ معايير الحوكمة غالباً ما تكون عامة إلى حد ما، فإن هذه الجوانب شاملة لجميع المجالات وتشكِّل أساساً مركزياً في عمليات التدقيق. وكما لاحظ أحد المدققين لدينا:

في كثير من الأحيان، عندما حدَّدنا وجود مشكلات في جوانب الحوكمة أثناء عمليات التدقيق التي أجريناها، فقد ظهرت أيضاً في المجالات الأخرى“.

على سبيل المثال، إذا لم يتم رصد أداء الخوارزمية بشكل ملائم، فغالباً ما لا تستطيع الجهات الخاضعة للتدقيق تقديم أدلَّة عن تخفيف المخاطر على مستوى نموذج الخوارزمية أيضاً. وقد يتم تضخيم هذه المخاطر إذا جرى إسناد تطوير الخوارزمية وإدارتها إلى جهة خارجية. ومع ذلك، نرى أنَّ العمل مع شريك خارجي لا يلغي مسؤوليات التحكم في خوارزمياته من الإدارات العامة.

وكشفت عمليات التدقيق لدينا عن مجموعة واسعة من ممارسات الخصوصية المختلفة بين المؤسسات الحكومية. وتتراوح هذه بين المنظمات التي أكملت تقييمات تأثير حماية البيانات الشاملة ومسؤوليات البيانات المحدَّدة بوضوح والمنظمات التي تكافح من أجل الامتثال للمتطلبات القانونية. وكثيراً ما كان لدى الفئة الأخيرة تراكم في الخوارزميات غير الموثّقة بالمقدار الكافي والموارد المحدودة لمعالجة هذا التراكم. ووجدنا منظمة واحدة تعمل على إنهاء أكثر من خمسين تقييم مختلف بواسطة فريق صغير فقط. وهناك أيضاً مجموعة متنوعة من التفسيرات العميقة للمواطنين في ما يتعلَّق باستخدام البيانات الشخصية. وفي بعض الحالات، وجدنا فقط معلومات عامة على المواقع الإلكترونية، في حين توفّرت في حالات أخرى أداة مخصصة للمواطنين للحصول على هذه الفكرة. وعلى الجانب المشرق، لاحظنا تأثيراً واضحاً لعمليات التدقيق لدينا على هذه الممارسات المتباينة:

نتيجة لعمليات التدقيق التي أجريناها، أصبحت الخصوصية أولوية أعلى وحقّقت المنظمات قفزات نوعية في وثائق معالجة البيانات بعد عمليات التدقيق هذه”.

أثناء تدقيق البيانات وجوانب النمذجة، واجهنا مشكلتين رئيسيتين. أولاً لا توجد حالياً طرق موحّدة للتخفيف من المخاطر، مثل كيفية معالجة التحيّزات أو اختيار النماذج. ثانياً يتم تطوير الخوارزميات بانتظام في بيئة منعزلة. نتيجةً لذلك، قد يكون من الصعب نقل رغبات الأعمال إلى فريق التطوير. ويحدث العكس أيضاً، على سبيل المثال عندما لا يتم إبلاغ قرارات النمذجة بطريقة قابلة للتنفيذ بالنسبة إلى المتخصصين الآخرين، مثل أولئك الذين لديهم خلفية قانونية أو في الإدارة. 

وتظهر تجاربنا في التدقيق العام في تكنولوجيا المعلومات أهمية أخذ الوقت الكافي لشرح إطار التدقيق لمسؤولي تكنولوجيا المعلومات المعنيين. ومن المهم بالمقدار نفسه تحديد نطاق عنصر التدقيق، مثل مختلف مكونات تكنولوجيا المعلومات لنظم تكنولوجيا المعلومات وسلسلة تقديم الخدمات الشاملة. ويمكن أن يساهم تحديد هذا النطاق في تحديد الأطراف المعنية، وتحليل من هو المسؤول عن عنصر معين. ولكن الأهم من ذلك هو أنَّ إطار التدقيق ما هو إلا أداة وليس هدفاً في حد ذاته. وشدَّد أحد أعضاء فريقنا:

ما من خوارزمية أو نظام ذكاء اصطناعي مكرَّر، وقد يكون من الضروري إدخال تعديلات على الخصوصيات والمخاطر والاحتياجات الفريدة حتى يمكن تطبيقها بشكل هادف وفعّال”.

ورغم المجالات المتخصصة أثناء تدقيق الخوارزميات، فإنَّ التكامل في ما بينها هو المفتاح. وكما يلخّص مدير المشروع:

يتطلَّب تدقيق الذكاء الاصطناعي مقداراً كبيراً من العمل الجماعي ومشاركة الأفكار في ما بينهم. وهذا أشبه بقطع مختلفة من اللغز معاً. فما من مجال يمتلك الصورة الكاملة”.

ولا ينبغي أبداً التقليل من أهمية هذا التكامل طوال عملية التدقيق وعبر الجدول الزمني. ويتطلَّب التدقيق الشامل للخوارزمية أن تجتمع كل وجهات النظر معاً. ويعتبر العمل معاً في فريق متعدِّد التخصصات شرطاً مسبقاً مهماً لإتمام تدقيق ناجح.

التأثير والمنظورات المستقبلية

نتيجةً لعمليات التدقيق التي أجريناها، لاحظنا تحوّلاً واضحاً في الاستخدام المسؤول لنظم الذكاء الاصطناعي في الحكومة الهولندية. وكان لعمليات التدقيق التي أجريناها تأثير مباشر على الجهات الخاضعة للتدقيق، لاسيما عند اكتشاف أوجه قصور. ويمكن لهذه المنظمات أن تطلق نداءً للتخفيف من مخاطر أنظمة الذكاء الاصطناعي المنتشرة بشكل أكثر فعاليّة. في الوقت نفسه، لاحظنا تأثيراً أوسع على المجتمع الهولندي. وكان إطار التدقيق لدينا أساساً للمبادئ التوجيهية الإضافية للاستخدام المسؤول للذكاء الاصطناعي في هولندا، في القطاعين العام والخاص على السواء. لذلك فإنَّ للدور الخاص والمستقل والجدير بالثقة للأجهزة العليا للرقابة المالية والمحاسبة في هذا الموضوع الناشئ مساهمة جديرة بالملاحظة في مشهد الحوكمة للذكاء الاصطناعي.

وبما أنَّ المجال لا يزال يتطور، فنحن كذلك. ونحن نراقب عن كثب التطورات في الذكاء الاصطناعي التوليدي، لأنها ستؤثِّر بالتأكيد في العمليات الحكومية. وبالمثل، سيجري تطبيق قانون الذكاء الاصطناعي الصادر عن المفوضية الأوروبية قريباً، مع إدخال قواعد جديدة بشأن الذكاء الاصطناعي. وستخضع نظم الذكاء الاصطناعي العالية المخاطر بشكل خاص لعدَّة متطلبات قانونية جديدة. وسيتعيّن على إطار التدقيق لدينا أن يراعي هذه الجوانب أيضاً. مع ذلك، حتى مع هذه التطورات، فمن المهم عدم انتظار ذلك. فأنظمة الذكاء الاصطناعي قيد الاستخدام بالفعل الآن وأكبر نصيحة لدينا هي مجرد المباشرة بتدقيق الذكاء الاصطناعي!

Back To Top