قانون الذكاء الاصطناعي الأوروبي: تنظيم الذكاء الاصطناعي باسم الثقة والسلامة والحقوق الأساسية

مارغو دو فوي

لم يعد الذكاء الاصطناعي تقنية بعيدة أو مجردة، بل أصبح جزءًا لا يتجزأ من حياتنا اليومية، يؤثر في طريقة تواصلنا وعملنا، وحتى في القرارات التي تُتخذ بشأننا. فمن أنظمة التعرّف على الوجوه، إلى أدوات التوظيف المعتمدة على الخوارزميات، ونماذج الذكاء الاصطناعي التوليدي، أثار التوسع السريع لهذه التقنيات تساؤلات ملحّة حول المساءلة والشفافية وحماية حقوق الإنسان.

واستجابةً لهذه التحديات، اتخذ الاتحاد الأوروبي خطوة تاريخية باعتماده قانون الذكاء الاصطناعي الأوروبي، ليصبح أول إطار قانوني شامل في العالم ينظم استخدام وتطوير تقنيات الذكاء الاصطناعي.

نهج قائم على تقييم المخاطر في تنظيم استخدام أنظمة الذكاء الاصطناعي

يقوم قانون الذكاء الاصطناعي على مبدأ التصنيف القائم على مستوى المخاطر، حيث تُنظم أنظمة الذكاء الاصطناعي وفقًا لمدى الضرر المحتمل الذي قد تُلحقه بالأفراد والمجتمع. ولا يهدف هذا القانون إلى حظر جميع تقنيات الذكاء الاصطناعي أو تقييدها بشكل مفرط، بل يميز بين أربع فئات رئيسية:

مخاطر غير مقبولة، مخاطر عالية، مخاطر محدودة، ومخاطر منخفضة (أو ضئيلة).

وتُحظر أنظمة الذكاء الاصطناعي المصنفة ضمن فئة المخاطر غير المقبولة حظرًا تامًا. ويشمل ذلك التقنيات التي تعتمد على التلاعب أو الخداع، أو تستغل الفئات الهشة بسبب العمر أو الإعاقة أو غيرها، أو تلك التي تستخدم أساليب “التقييم الاجتماعي” للأفراد. كما يحظر القانون الجمع العشوائي لصور الوجوه، واستخدام أنظمة التعرف على المشاعر في أماكن العمل أو المدارس، إلا في حالات ضيقة جدًا تتعلق بالسلامة أو الأغراض الطبية.

ويعكس هذا الحظر موقفًا سياسيًا واضحًا مفاده أن بعض استخدامات الذكاء الاصطناعي تتعارض جوهريًا مع حقوق الإنسان والقيم الديمقراطية.

جوهر الإطار التنظيمي للأنظمة عالية المخاطر

يركّز قانون الذكاء الاصطناعي الأوروبي بشكل أساسي على أنظمة الذكاء الاصطناعي عالية المخاطر، وهي أنظمة يُسمح باستخدامها، ولكن ضمن شروط صارمة من التنظيم والرقابة. ويُعرّف القانون هذه الأنظمة بالاستناد إلى تشريعات السلامة الأوروبية، إضافة إلى القطاعات الحساسة الواردة في الملحق الثالث من القانون، والتي تشمل: التعليم، والتوظيف، والحصول على الخدمات الأساسية، والنظام الجنائي، والهجرة وضبط الحدود، وإدارة العدالة.

وتشمل الأمثلة على هذه الأنظمة: أدوات تصفية المتقدمين للوظائف، وتقييم الجدارة الائتمانية للحصول على القروض، وتقييم طلبات اللجوء، أو دعم عمل جهات إنفاذ القانون في التحقيقات الجنائية. ونظرًا لتأثيرها العميق على الأفراد، يفرض القانون على مطوري ومزودي هذه الأنظمة التزامات صارمة طوال دورة حياة النظام، من بينها:

  • اعتماد أنظمة لإدارة المخاطر
  • ضمان جودة وشمولية وتمثيل البيانات المستخدمة في التدريب
  • توثيق المعلومات التقنية ذات الصلة
  • توفير إشراف بشري فعّال
  • ضمان الدقة والمتانة والأمن السيبراني

ويمتد تطبيق هذه المتطلبات إلى مزودي الأنظمة من خارج الاتحاد الأوروبي، بما يعكس طموح الاتحاد إلى الإسهام في وضع معايير دولية لحوكمة الذكاء الاصطناعي.

أنظمة الذكاء الاصطناعي ذات المخاطر المحدودة والمنخفضة

لا تخضع جميع أنظمة الذكاء الاصطناعي للمتطلبات التنظيمية نفسها. فأنظمة المخاطر المحدودة، مثل روبوتات الدردشة وتقنيات التزييف العميق (Deepfakes)، تلتزم أساسًا بمتطلبات الشفافية، بحيث يكون المستخدم على علم بأنه يتفاعل مع نظام آلي وليس مع إنسان.

أما أنظمة المخاطر المنخفضة، والتي تشمل العديد من التطبيقات الاستهلاكية مثل ألعاب الفيديو المعتمدة على الذكاء الاصطناعي ومرشحات الرسائل غير المرغوب فيها، فلا تخضع لأي التزامات تنظيمية إضافية. ويهدف هذا النهج المتوازن إلى تشجيع الابتكار، مع ضمان وجود ضوابط كافية عندما تكون المخاطر مرتفعة.

الذكاء الاصطناعي للأغراض العامة والمخاطر النظامية

يُعد تنظيم الذكاء الاصطناعي للأغراض العامة، بما في ذلك النماذج واسعة النطاق القادرة على أداء مهام متعددة، من أكثر جوانب القانون تقدمًا. إذ يُلزم جميع مزودي هذه النماذج بنشر وثائق تقنية، والالتزام بقواعد حقوق النشر الأوروبية، والإفصاح عن ملخصات حول بيانات التدريب المستخدمة.

أما النماذج التي تُصنّف على أنها ذات مخاطر نظامية—بناءً على قدراتها الحاسوبية أو تأثيرها المحتمل—فتخضع لمتطلبات إضافية، مثل إجراء اختبارات مضادة، والتخفيف من المخاطر، والإبلاغ عن الحوادث الجسيمة، وتعزيز إجراءات الأمن السيبراني. ويعكس ذلك القلق المتزايد بشأن التأثيرات المجتمعية والجيوسياسية للذكاء الاصطناعي المتقدم، بما في ذلك التضليل واسع النطاق، والأتمتة، والتهديدات الأمنية.

الحوكمة وآليات التنفيذ

أنشأ قانون الذكاء الاصطناعي الأوروبي مكتب الذكاء الاصطناعي للإشراف على الإطار التنظيمي وتنفيذه، ولا سيما فيما يتعلق بمزودي أنظمة الذكاء الاصطناعي للأغراض العامة. ويعمل المكتب بالتعاون مع السلطات الوطنية لمراقبة أنظمة الذكاء الاصطناعي عالية المخاطر ومستخدميها في السياقات المهنية، مع تحميل مطوري هذه الأنظمة مسؤوليات أكبر من المستخدمين النهائيين.

كما يحدد القانون جداول زمنية واضحة للتنفيذ، تشمل:

  • حظر بعض الممارسات خلال ستة أشهر
  • بدء الالتزامات المتعلقة بالذكاء الاصطناعي للأغراض العامة بعد عام واحد
  • إلزام أنظمة الذكاء الاصطناعي عالية المخاطر بالامتثال خلال فترة تتراوح بين سنتين وثلاث سنوات

ويهدف هذا التطبيق المرحلي إلى منح الجهات المعنية وقتًا كافيًا للتكيّف، مع ضمان المساءلة.

الخلاصة

لا يُعد قانون الذكاء الاصطناعي الأوروبي مجرد أداة تنظيمية، بل هو إعلان نوايا سياسي وقيمي. فمن خلال التركيز على الكرامة الإنسانية والحقوق الأساسية والرقابة الديمقراطية، يرسّخ الاتحاد الأوروبي موقعه كقائد عالمي في حوكمة الذكاء الاصطناعي الأخلاقية.

ورغم استمرار التحديات المتعلقة بالتنفيذ، وكلفة الابتكار، والتنسيق الدولي، فإن هذا القانون يوفر أساسًا قويًا لبناء بيئة تنظيمية متوازنة. ومع استمرار الذكاء الاصطناعي في إعادة تشكيل أنماط الحوكمة والأمن والتنافس الاقتصادي، يسعى الاتحاد الأوروبي إلى تطوير إطار يضمن أن يسير التقدم التكنولوجي جنبًا إلى جنب مع المسؤولية الاجتماعية، بما يعزز الثقة ويشجع على استخدام آمن ومستدام للذكاء الاصطناعي.