تقنية

الذكاء الاصطناعي

قرر الاتحاد الأوروبي السماح للجهات التنظيمية في الدول الأعضاء بحظر استخدام أنظمة الذكاء الاصطناعي التي تُعدّ “تشكل خطرًا غير مقبول” أو تسبب ضررًا. بدأ تنفيذ هذا القرار اعتبارًا من يوم أمس، 2 فبراير، وهو الموعد الأول للامتثال لقانون الذكاء الاصطناعي في الاتحاد الأوروبي، الذي يعدّ إطارًا تنظيميًا شاملاً وافق عليه البرلمان الأوروبي في مارس الماضي بعد سنوات من العمل على تطويره.

وقد دخل القانون حيز التنفيذ رسميًا في الأول من أغسطس الماضي، ويعد هذا الموعد بداية مرحلة الامتثال، كما أفاد تقرير نشره موقع “تك كرانش”.

تم تصميم القانون ليغطي مجموعة واسعة من حالات الاستخدام التي قد يظهر فيها الذكاء الاصطناعي ويتفاعل مع الأفراد، من التطبيقات الاستهلاكية إلى البيئات المادية.

وتشمل بعض الأنشطة غير المقبولة ما يلي:

– استخدام الذكاء الاصطناعي في التسجيل الاجتماعي (مثل بناء ملفات تعريف المخاطر استنادًا إلى سلوك الشخص).
– استخدام الذكاء الاصطناعي للتلاعب بقرارات الشخص بطريقة غير واعية أو بطريقة خادعة.
– استخدام الذكاء الاصطناعي لاستغلال نقاط ضعف الأفراد مثل العمر أو الإعاقة أو الوضع الاجتماعي والاقتصادي.
– استخدام الذكاء الاصطناعي للتنبؤ بارتكاب الأشخاص للجرائم بناءً على مظهرهم.
– استخدام الذكاء الاصطناعي للبحث عن خصائص الأشخاص من خلال البيانات الحيوية، مثل ميولهم الجنسية.
– جمع الذكاء الاصطناعي للبيانات الحيوية “في الوقت الفعلي” في الأماكن العامة لأغراض إنفاذ القانون.
– استخدام الذكاء الاصطناعي لاستخلاص مشاعر الأفراد في بيئات العمل أو التعليم.
– إنشاء أو توسيع قواعد بيانات التعرف على الوجه عن طريق جمع الصور عبر الإنترنت أو من كاميرات المراقبة.

ستواجه الشركات التي تُثبت استخدامها لأي من هذه التطبيقات في الاتحاد الأوروبي غرامات، بغض النظر عن موقع مقرها الرئيسي.

قد تصل الغرامات إلى 35 مليون يورو (حوالي 36 مليون دولار) أو 7% من إيرادات الشركة السنوية في السنة المالية السابقة، أيهما أكبر.

وأشار روب سومروي، رئيس قسم التكنولوجيا في شركة سلوتر آند ماي البريطانية للمحاماة، إلى أن تطبيق الغرامات لن يكون فورياً.

وقال: “من المتوقع أن تلتزم المنظمات تمامًا بحلول الثاني من فبراير، لكن الموعد الكبير التالي الذي يجب أن تضعه الشركات في اعتبارها هو في أغسطس”.

التعهدات الأولية

في سبتمبر الماضي، وقع أكثر من 100 شركة على ميثاق الذكاء الاصطناعي للاتحاد الأوروبي، وهو التزام طوعي للبدء في تطبيق مبادئ قانون الذكاء الاصطناعي قبل أن يدخل حيز التنفيذ.

وبموجب هذا الميثاق، التزم الموقعون – بما في ذلك “أمازون”، “غوغل”، و”OpenAI” – بتحديد الأنظمة التي يحتمل تصنيفها على أنها عالية الخطورة وفقًا للقانون.

مع ذلك، رفضت بعض الشركات الكبرى، مثل “ميتا” و”أبل”، التوقيع على الميثاق. كما اختارت شركة “ميسترال” الفرنسية الناشئة في مجال الذكاء الاصطناعي، والتي تعد من أشد المنتقدين للقانون، عدم التوقيع أيضًا.

ومع ذلك، لا يعني هذا أن الشركات التي لم توقع، مثل “أبل” و”ميتا” و”ميسترال”، ستتجنب الوفاء بالالتزامات المطلوبة منها، بما في ذلك الامتثال للحظر المفروض على الأنظمة المحفوفة بالمخاطر. ويشير “سومروي” إلى أنه بالنظر إلى طبيعة الحالات المحظورة المنصوص عليها، فمن المرجح أن معظم الشركات لن تشارك في هذه الممارسات على أي حال.

الاستثناءات المحتملة

هناك استثناءات متعددة لبعض المحظورات التي ينص عليها قانون الذكاء الاصطناعي.

على سبيل المثال، يسمح القانون لسلطات إنفاذ القانون باستخدام أنظمة معينة تجمع البيانات الحيوية في الأماكن العامة، بشرط أن تساعد هذه الأنظمة في إجراء “بحث مستهدف” بشأن حالات مثل اختطاف الأشخاص، أو في حالات تهديد “محدد، جوهري ووشيك” على الحياة.

ويشترط القانون للحصول على إذن من الهيئة الحاكمة المختصة قبل استخدام هذه الأنظمة.

كذلك، يحدد القانون استثناءات للأنظمة التي تتيح استنتاج المشاعر في بيئات العمل والمدارس، في الحالات التي تستدعي مبرراً “طبياً أو يتعلق بالسلامة”، مثل الأنظمة المصممة للاستخدام العلاجي.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى