AI godna zaufania – europejski model rozwoju sztucznej inteligencji

أدى التطور المتسارع لتكنولوجيا الذكاء الاصطناعي وتأثيرها المتزايد على الحياة الاجتماعية والاقتصادية والسياسية إلى سعي الاتحاد الأوروبي لإنشاء أول إطار قانوني شامل في العالم لتنظيم هذا المجال. وقد أسفر ذلك عن صدور اللائحة (الاتحاد الأوروبي) 2024/1689 الصادرة عن البرلمان الأوروبي والمجلس بتاريخ 13 يونيو 2024، والتي تنص على قواعد موحدة بشأن الذكاء الاصطناعي وتعدل اللوائح (المفوضية الأوروبية) رقم 300/2008، و(الاتحاد الأوروبي) رقم 167/2013، و(الاتحاد الأوروبي) رقم 168/2013، و(الاتحاد الأوروبي) 2018/858، و(الاتحاد الأوروبي) 2018/1139، و(الاتحاد الأوروبي) 2019/2144، والتوجيهات 2014/90/الاتحاد الأوروبي، و(الاتحاد الأوروبي) 2016/797، و(الاتحاد الأوروبي) 2020/1828 (قانون الذكاء الاصطناعي)، المشار إليه فيما يلي باسم "قانون الذكاء الاصطناعي". يمكن وصف أهداف قانون الذكاء الاصطناعي بأنها محاولة لتحقيق التوازن بين الابتكار والمسؤولية، والتوفيق بين حماية الحقوق الأساسية وتعزيز تنافسية السوق الأوروبية. وبذلك، يحدد القانون الحدود التي قد تشكل فيها التكنولوجيا، وفقًا لتقدير المشرعين الأوروبيين، تهديدًا للبشر. ويسعى الاتحاد الأوروبي إلى أن يكون رائدًا عالميًا في المعايير الأخلاقية التي تعزز الذكاء الاصطناعي الجدير بالثقة. ومن الجدير بالذكر أن الاتحاد الأوروبي والولايات المتحدة والصين تتبنى حاليًا نماذج تطوير وتنظيم مختلفة جذريًا للذكاء الاصطناعي.

تستند الرؤية الأوروبية إلى نهج تنظيمي صارم، يستند في جوهره إلى القيم المنصوص عليها في ميثاق الاتحاد الأوروبي للحقوق الأساسية، ويُقرّ بأولوية حماية الأفراد والمصلحة العامة. ويُلزم هذا النهج بتصنيف أنظمة الذكاء الاصطناعي، ويفرض متطلبات عديدة، بما في ذلك تلك المتعلقة بالدقة والمتانة
والأمن السيبراني، ويحظر عددًا من الممارسات المرتبطة، على سبيل المثال، بالتقييم الاجتماعي والتلاعب. ورغم إدراك الولايات المتحدة المتزايد للمخاطر المرتبطة بالذكاء الاصطناعي، فإنها لا تزال ملتزمة بمبدأ الحد الأدنى من التنظيم والحد الأقصى من الابتكار، بينما تنظر الصين، في الوقت الذي تدعم فيه تطوير الذكاء الاصطناعي على مستوى الدولة بشكل مكثف، إليه كأداة لتحقيق المصالح الوطنية وتحسين آليات الرقابة الاجتماعية. ويثير تعايش هذه النماذج المتنوعة تساؤلات حول إمكانية تحقيق تنسيق عالمي لمعايير الذكاء الاصطناعي ومستقبل النظام الرقمي الدولي - فهل سيسود القانون أم السوق أم القوة؟

استنادًا إلى الافتراضات المذكورة أعلاه، يحظر قانون الذكاء الاصطناعي ممارسات معينة في هذا المجال، ويحدد في المادة 5 تلك الممارسات التي تُعتبر غير مقبولة في الاتحاد الأوروبي نظرًا لانتهاكها للحقوق الأساسية وخطرها الكبير على المجتمع. ويشمل ذلك، على سبيل المثال:

  • الأساليب الخفية أو التلاعبية أو المضللة (ومن الأمثلة على ذلك أنظمة الإعلان القائمة على الذكاء الاصطناعي والتي تستخدم محفزات بصرية أو صوتية لا شعورية يمكن أن تؤثر على قرارات المستهلكين دون علمهم، مما يؤدي إلى قرارات شراء غير مواتية)،
  • أنظمة التقييم الاجتماعي، التي تمنح نقاطًا للمواطنين مقابل "السلوك الجيد" (مثل الامتثال للوائح) وتحد من الوصول إلى الخدمات العامة للأشخاص ذوي "الدرجة المنخفضة"،
  • تقييم خطر ارتكاب جريمة بناءً على التنميط فقط، أي الأنظمة التي تتنبأ بميل الفرد لارتكاب جريمة بناءً على خصائص ديموغرافية أو اجتماعية، دون أدلة محددة
  • يُحظر استنتاج المشاعر في أماكن العمل والمؤسسات التعليمية، على سبيل المثال، الأنظمة التي تراقب مشاعر موظفي مراكز الاتصال باستخدام تحليل الصوت أو تعابير الوجه لتقييم أدائهم

في الوقت نفسه، يفرض قانون الذكاء الاصطناعي التزامات عديدة على أنظمة الذكاء الاصطناعي عالية المخاطر، كما هو مُعرّف في المادة 6 والملحق الثالث من القانون، وهي الأنظمة التي تخضع لأشد المتطلبات التنظيمية صرامةً نظرًا لتأثيرها المحتمل على الحقوق الأساسية والصحة والسلامة والحريات المدنية. وتكتسب المادة 15 من القانون أهمية بالغة في هذا الصدد، إذ تنص على ضرورة تصميم وتطوير أنظمة الذكاء الاصطناعي عالية المخاطر لتحقيق مستويات مناسبة من الدقة والمتانة والأمن السيبراني، وأن تعمل هذه الأنظمة باستمرار في هذه الجوانب طوال دورة حياتها. لذا، يجب أن تكون هذه الأنظمة:

  • يجب أن تكون هذه الأنظمة قوية، وبالتالي مقاومة للأخطاء أو الأعطال أو التناقضات، وبفضل التدابير التقنية والتنظيمية مثل التكرار أو تحويل النظام إلى حالة آمنة (ما يسمى "الأنظمة الآمنة من الأعطال")، يجب أن تكون قادرة على العمل بشكل صحيح على الرغم من الاضطرابات والأعطال
  • دقيق، أي يجب أن تحافظ الخوارزمية على مستوى عالٍ من دقة النتائج، بما يتناسب مع غرضها وسياق استخدامها
  • القدرة على الصمود في وجه التهديدات السيبرانية من خلال تنفيذ تدابير لمنع الهجمات التي تستهدف مجموعات بيانات التدريب (تسميم البيانات) أو عناصر التدريب المدربة مسبقًا (تسميم النموذج)، أو المدخلات التي تهدف إلى التسبب في أخطاء في نموذج الذكاء الاصطناعي (أمثلة معادية أو تجاوز النموذج)، أو هجمات السرية أو عيوب النموذج، واكتشافها والاستجابة لها وحلها والسيطرة عليها.

من الناحية العملية، هذا يعني أن منتجي وموردي أنظمة الذكاء الاصطناعي يجب أن يقوموا بعدد من الأنشطة، بما في ذلك اختبار ما قبل التنفيذ، وإدخال آليات التدقيق، ومراقبة وإدارة بيانات التدريب والاختبار بشكل آمن، بالإضافة إلى الحفاظ على وثائق فنية شاملة

سيحدد تقييم تكلفة تنفيذ المتطلبات التنظيمية، فضلاً عن إمكانية التفسير الصحيح للمعايير العامة المستخدمة في قانون الذكاء الاصطناعي، ما إذا كان
سيتم الحفاظ على التوازن بين الابتكار والتنظيم، وما إذا كانت المتطلبات الصارمة للغاية ستحد في نهاية المطاف من القدرة التنافسية لقطاع الذكاء الاصطناعي الأوروبي.

كما يتوقع جيري كابلان، رائد الأعمال الأمريكي وعالم الحاسوب وخبير الذكاء الاصطناعي
والمستقبلي، في كتابه "الذكاء الاصطناعي التوليدي"، فإننا نقف حاليًا على أعتاب نهضة جديدة، وتحول ثقافي هائل نحو الآلات، ما يعني أنه "في المستقبل، عندما نسعى للحصول على المشورة الأكثر خبرة وموضوعية وموثوقية، سنلجأ إلى الآلات لا إلى البشر". ويرى كابلان أن ثورة الذكاء الاصطناعي ستؤثر بشكل أساسي على نظام الرعاية الصحية، والنظام القانوني، والتعليم، وهندسة البرمجيات، والمهن الإبداعية. وتماشيًا مع رسالتها، ستدعم مؤسسة SET للأمن والطاقة والتكنولوجيا الابتكار بما يتماشى مع متطلبات الأمن، وتعزز الحوار والتعاون بين القطاعات، وتوفر الخبرات المهنية.

المؤلفون:

د. كارولينا غريندا

Członek Rady Fundacji

يشارك: