إن التطور الديناميكي لتكنولوجيا الذكاء الاصطناعي (AI) وتأثيره المتزايد على الحياة الاجتماعية والاقتصادية والسياسية يعني أن الاتحاد الأوروبي حاول إنشاء أول إطار قانوني شامل ينظم هذا المجال. والنتيجة هي تنظيم البرلمان الأوروبي والمجلس (EU) 2024/1689 في 13 يونيو 2024 على إنشاء أحكام منسقة بشأن الذكاء الاصطناعي والتعديلات على اللوائح (EC) رقم 300/2008 ، (EU) رقم 167/2013 ، (EU) NO 168/2013 ، (الاتحاد الأوروبي) 2019/2144 والتوجيه 2014/90/EU ، (EU) 2016/797 I (EU) 2020/1828 (ACT على الذكاء الاصطناعي) ، فيما يلي: AI ACT. يمكن إدراج أهداف AI ACT كمحاولة لتحقيق التوازن بين الابتكار مع المسؤولية والتوفيق بين حماية الحقوق الأساسية من خلال تعزيز القدرة التنافسية للسوق الأوروبية. يحدد قانون الذكاء الاصطناعى حدود حيث ، في رأي المشرعين الأوروبيين ، يمكن أن تهدد التكنولوجيا الإنسان. يريد الاتحاد الأوروبي أن يكون رائدًا عالميًا في مجال المعايير الأخلاقية التي تعزز الذكاء الاصطناعي الجدير بالثقة. تجدر الإشارة إلى أن الاتحاد الأوروبي والولايات المتحدة الأمريكية والصين يتخذان حاليًا نماذج تنمية وتنظيمية مختلفة تمامًا فيما يتعلق بالانعدام الذكاء.
تستند الرؤية الأوروبية إلى نهج تنظيمي صلب ، والذي ، استنادًا إلى القيم ، المدرجة في المقام الأول في بطاقة الحقوق الأساسية للاتحاد الأوروبي ، تعترف بأولوية حماية الفرد والمصلحة العامة ، وتصنيف القوات لأنظمة الذكاء الاصطناعى ، ويحدد العديد من المتطلبات لها ، بما في ذلك تلك المتعلقة بالدقة والموثوقية
والأمن السيبراني ، ويحظر أيضًا سلسلة من الممارسات ذات الصلة بـ E.G. التسجيل الاجتماعي أو التلاعب بالتسجيل الاجتماعي. لا تزال الولايات المتحدة ، على الرغم من إدراكها أكثر وأكثر وعياً بالتهديدات التي قد ترتبط بذكاء الذكاء الاصطناعي ، تلتزم بمبدأ الحد الأدنى من التنظيم والحد الأقصى للابتكار ، في حين أن الصين تدعم بشكل مكثف تطور الذكاء الاصطناعي على مستوى الولاية ، انظر فيها إلى إدراك المصلحة الوطنية وتحسين آليات التحكم الاجتماعي. يثير التعايش بين هذه النماذج المختلفة مسألة حول إمكانية التوافق العالمي لمعايير الذكاء الاصطناعي ومستقبل النظام الرقمي الدولي - هل سيربح القانون أو السوق أو القوة؟
عند الخروج من الافتراضات الموصوفة أعلاه ، يحظر قانون الذكاء الاصطناعي ممارسات محددة في مجال الذكاء الاصطناعي ، ويذكر في الفن. 5 أولئك الذين يعتبرون في الاتحاد الأوروبي غير مقبول بسبب انتهاك الحقوق الأساسية والمخاطر العالية للمجتمع. هذا ينطبق ، على سبيل المثال:
- تقنيات مموهة أو تلاعب أو مضللة (مثال يمكن أن يعتمد على أنظمة الإعلان من الذكاء الاصطناعى باستخدام محفزات بصرية أو سليمة غير واعية يمكن أن تكون قادرة على التأثير على قرارات المستهلك دون معرفتها ، مما يؤدي إلى قرارات الشراء السلبية) ،
- أنظمة التسجيل الاجتماعي ، ومنح نقاط المواطنين لـ "السلوك الجيد" (مثل الامتثال للوائح) والحد من الوصول إلى الخدمات العامة للأشخاص ذوي النتيجة المنخفضة "،
- تقييم خطر ارتكاب جريمة فقط على أساس التنميط ، أي الأنظمة التي من شأنها أن توفر ميلًا إلى ارتكاب جريمة تعتمد على السمات الديموغرافية أو الاجتماعية ، دون أدلة محددة ،
- الاستدلالات على العواطف في مكان العمل والمؤسسات التعليمية ، أي على سبيل المثال ، الأنظمة التي تراقب عواطف موظفي مركز الاتصال باستخدام تعبيرات الصوت أو الوجه لتقييم أدائهم.
في الوقت نفسه ، بالنسبة لأنظمة الذكاء الاصطناعي عالية الخطورة ، الموصوفة في الفن. 6 والملحق الثالث لقانون الذكاء الاصطناعى ، أي تلك التي ، بسبب تأثيرها المحتمل على الحقوق الأساسية أو الصحة أو الأمن أو الحريات المدنية ، يخضعون للمتطلبات التنظيمية الأكثر صرامة ، يقدم قانون الذكاء الاصطناعي العديد من الالتزامات. فن. 15 قانون منظمة العفو الدولية ، وفقًا لأنظمة الذكاء الاصطناعي عالية الخطورة التي يتم تصميمها وتطويرها بطريقة تحقق مستوى مناسبًا من الدقة والموثوقية والأمن السيبراني ، وأنها تعمل باستمرار في هذه النواحي طوال دورة الحياة. لذلك يجب أن يكونوا:
- صلبة ، وبالتالي مقاومة للأخطاء أو العيوب أو التناقضات ، وبفضل التدابير الفنية والتنظيمية ، مثل التكرار أو انتقال النظام إلى حالة آمنة (ما يسمى "آمن" الفشل) ، يجب أن يكونوا قادرين على العمل بشكل صحيح على الرغم من التداخل والفشل ،
- دقيقة ، على سبيل المثال ، يجب أن تحافظ الخوارزمية على مستوى عالٍ من دقة النتائج ، كافية لغرضها وسياقها ،
- مقاومة للإلكترونية ، من خلال تنفيذ وسائل لمنع الهجمات التي تهدف إلى معالجة مجموعة بيانات التدريب (تسمم البيانات) أو العناصر المستخدمة في التدريب ، والتي تم تحديدها مسبقًا (تسمم النموذج) ، أو إدخال بيانات الإدخال التي تهدف إلى التسبب في خطأ في نموذج AI (أمثلة خصوصيات أو تتجاوز النموذج) ، والهجوم على تدابير النموذج ، والرد عليها.
في الممارسة العملية ، هذا يعني أن المصنعين والموردين لأنظمة الذكاء الاصطناعى يقومون بالعدد من الأنشطة ، بما في ذلك على سبيل المثال اختبار ما قبل التقديم ، إدخال آليات التدقيق ، والمراقبة والإدارة الآمنة لبيانات التدريب واختبار ، وكذلك الحفاظ على وثائق تقنية شاملة
سيقرر تقييم تكلفة تنفيذ المتطلبات التنظيمية ، وكذلك إمكانية تفسير المعايير العامة بشكل صحيح ، والتي تستخدمها قانون الذكاء الاصطناعي ، ما إذا كان
سيتم الحفاظ على التوازن بين الابتكار والتنظيم ، وما إذا كانت المتطلبات الصارمة للغاية لن تحد أخيرًا من القدرة التنافسية لقطاع AI الأوروبي.
بصفتنا جيري كابلان ، رائد أعمال أمريكي ، أخصائي لتكنولوجيا المعلومات ، خبير في مجال تكنولوجيا المعلومات
وأخصائي المستقبل في كتابنا "AI التوليدي" ، نتوقع ، نحن حاليًا على حافة النهضة الجديدة ، وهو تغيير ثقافي كبير يركز على الآلات ، والتي ستجعل "في المستقبل ، عندما نبحث عن أكثر النصيحة المهنية والموضوعية والموثوقة ، سنتحول إلى الأجهزة ، وليس الناس ، وليس من الناس." في رأيه ، ستختبر ثورة الذكاء الاصطناعي في المقام الأول نظام الرعاية الصحية والنظام القانوني والتعليم وهندسة البرمجيات والمسابقات الإبداعية. وفقًا لمهمتها ، ستدعم مؤسسة Set Security-Energy-Technology الابتكارات ، وفقًا لمتطلبات الأمان ، حيث تنشط النقاش والتعاون بين القطاعات ، بالإضافة إلى توفير الخبرة المهنية.