قدمت المفوضية الأوروبية خططا لقواعد جديدة تنظم استخدام الذكاء الاصطناعي في التكتل، تتضمن فرض حظر تام على بعض التقنيات وتنظيم استخدام أخرى.
وإذا ما أصبحت هذه القواعد قانونا، فسيتم تقييم التقنيات وفقا لـ”نظام هرمي”، بدءا من ما تعتبره المفوضية أنظمة ذكاء اصطناعي آمنة إلى التقنيات ذات “المخاطر التي لا يمكن القبول بها”.
وقالت نائبة الرئيس التنفيذي للمفوضية مارجريت فيستاجر :”كلما زاد الخطر الذي قد يتسبب فيه استخدام معين لصورة من صدور الذكاء الاصطناعي في حياتنا، كلما زادت صرامة القواعد”.
وسيكون من الممكن استخدام أنظمة الذكاء الاصطناعي الآمنة، مثل عوامل تصفية البريد العشوائي في برامج البريد الإلكتروني، دون قيود.
كما سيتم السماح إلى حد كبير باستخدام التقنيات منخفضة الخطورة مثل تقنيات “التزييف العميق”، ولكن سيتعين عليها تلبية متطلبات الشفافية.
ولفتت فيستاجر إلى أن “الهدف هو أن نوضح لنا كمستخدمين بصورة قاطعة أننا نتعامل مع آلة”.
أما التقنيات عالية المخاطر، والتي تعرّفها اللجنة بأنها تلك التي لها تأثير كبير على حياة الناس، على سبيل المثال لاستبعاد طلبات العمل أو منح ائتمان بنكي، فسيتعين أن تمتثل لقواعد الشفافية وجودة البيانات.
وأوضحت فيستاجر أنه في حالة عدم الامتثال، فإنه يمكن تغريم الشركات بنسبة تصل إلى 6% من إيراداتها السنوية حول العالم.
ولا تزال المقترحات بحاجة لمصادقة الدول الأعضاء والبرلمان الأوروبي عليها، وهي عملية يمكن أن تستغرق عدة أشهر أو حتى سنوات