تتزايد المخاوف بشأن المخاطر المحتملة للذكاء الصناعي، آخرها ما أعلنه مجموعة من خبراء التكنولوجيا والعلوم، بمن فيهم سام ألتمان مبتكِر برنامج ChatGPT. وحذر هؤلاء الخبراء في بيان الثلاثاء، من أن استخدام هذه التكنولوجيا قد يشكّل خطراً على البشرية ويهدّدها بالانقراض.
وشدّد البيان على أن مواجهة التهديدات المتعلقة بالذكاء الصناعي يجب أن تكون "أولوية عالمية تماثل المخاطر المتعلقة بالأوبئة والحروب النووية"، فيما تُضاف هذه التحذيرات إلى أخرى، دعا فيها خبراء آخرون، من بينهم الملياردير إيلون ماسك، إلى التوقف ستة أشهر عن إجراء أبحاث ترمي إلى التوصل إلى تقنيات ذكاء صناعي أقوى من ChatGPT.
في المقابل كان الاتحاد الأوروبي سباقاً في طرح هذه القضية، منذ أبريل/نيسان 2021، حين شرع المشرعون الأوروبيون في تدارس تقنين الذكاء الصناعي. وهي الخطوات التي يسعى الجانبان الأوروبي والأمريكي، لتعزيزها بشكل مشترك، عبر مذكرة السلوك التي يعتزمان إصدارها قريباً، وأُعلنَ عنها الأربعاء، في أفق تطوير معايير مشتركة في هذا الشأن.
مذكرة سلوك أوروبية-أمريكية
انتهى الاجتماع الوزاري الرابع لمجلس التجارة والتكنولوجيا، الذي عُقد بالسويد الأربعاء، بمشاركة مسؤولين أوروبيين وبحضور وزير الخارجية الأمريكي جو بايدن، إلى قرار إصدار مذكرة سلوك طوعية للتعامل مع مخاطر الذكاء الصناعي، في أفق تطوير معايير مشتركة لهذا الغرض.
وبعد محادثاته مع مسؤولي الاتحاد الأوروبي في السويد، قال وزير الخارجية الأمريكي أنتوني بلينكين للصحفيين، إن الشركاء الغربيين شعروا "بالحاجة الملحَّة والشديدة" إلى التحرك بخصوص مخاوف الذكاء الصناعي، وسيطلبون من "الدول ذات التفكير المماثل" الانضمام إلى مدونة السلوك الطوعي.
وأضاف بلينكن: "تظهر دائماً فجوة مع ظهور التقنيات الجديدة، مع الوقت الذي تستغرقه الحكومات والمؤسسات لمعرفة كيفية التشريع والتنظيم".
في السياق ذاته أكدت نائبة رئيس المفوضية الأوروبية مارغريت فيستاجر التي رأست الاجتماع، أن مسودة مذكرة السلوك ستُطرح "في غضون أسابيع". وأعربت عن رغبة الاتحاد الأوروبي في "فعل ذلك على أوسع دائرة ممكنة، مع أصدقائنا في كندا، المملكة المتحدة، اليابان، الهند، وجلب أكبر عدد ممكن من الأشخاص على متن هذا الركب".
وفي حديث لها مع "بوليتيكو"، كشفت فيستاجر أن "مدونة السلوك الطوعية هي حالياً مذكرة إحاطة من صفحتين أصدرتها المفوضية الأوروبية، وسلمتها شخصياً لوزيرة التجارة الأمريكية جينا ريموندو يوم الأربعاء".
وحسب البيان المشترك لهذا الاجتماع، فإن مذكرة السلوك المذكورة ستروم "تحقيق الاستفادة القصوى من إمكانات التقنيات الناشئة"، وفي الوقت ذاته "تقييد التحديات التي تشكّلها على حقوق الإنسان العالمية والقيم الديمقراطية المشتركة"، مشدداً على أن "التطورات الأخيرة في الذكاء الصناعي التوليدي، تسلط الضوء على حجم الفرص التي توفرها والحاجة إلى معالجة المخاطر المرتبطة بها".
كيف يتحرك الاتحاد الأوروبي لتقييد الذكاء الصناعي؟
علاوة على ما خرج به الاجتماع الوزاري لمجلس التجارة والتكنولوجيا من تفاهم أمريكي-أوروبي بشأن مواجهة المخاطر المحتملة للذكاء الصناعي، فإن مشرعين الاتحاد الأوروبي يعملون منذ 2021 على إخراج ترسانة قانونية تؤطّر الذكاء الصناعي وتحمي مستخدميه في الدول الـ27.
وإلى اليوم لا يزال "قانون الاتحاد الأوروبي للذكاء الصناعي" مسودة مقترح، لم يُصدَّق عليها بعد. ويقسّم هذا القانون مخاطر الذكاء الصناعي ثلاثة أقسام: أولها فئة "المخاطر غير مقبولة" مثل التقييم الاجتماعي وانتهاك الخصوصية، وبموجبها حُظرَت التطبيقات والأنظمة التي تندرج ضمن هذه الفئة.
ثانياً فئة "التطبيقات عالية الخطورة"، مثل أدوات مسح السيرة الذاتية التي تصنف المتقدمين للوظائف، وتخضع هذه الفئة لتدقيقات قانونية محددة. وأخيراً، التطبيقات التي لم تُحظَر صراحة أو تُدرَج على أنها عالية الخطورة، وتُترك إلى حد كبير بلا قيود تنظيمية.
ويُلزِم هذا القانون مبرمجي تطبيقات الذكاء الصناعي الشفافية مع المستخدمين، إذ يقول في بنده 52: "على مزودي الخدمة التأكد من أن أنظمة الذكاء الصناعي المخصصة للتفاعل مع الأفراد الطبيعيين صُمّمَت وطُوّرَت بطريقة تبلغ هؤلاء الأفراد أنهم يتفاعلون مع نظام ذكاء صناعي، ما لم يكن هذا واضحاً من الظروف وسياق الاستخدام".
وطمح تكتل 27 إلى أن يكون هذا القانون رائداً في مجال تقنينات الذكاء الصناعي في العالم، وأن يُعمَّم دولياً، مع وجود تخوُّف بشأن مرونة هذا القانون وقابليته لاحتواء التطبيقات الجديدة للذكاء الصناعي، بالنظر إلى تسارع التكنولوجيا في هذا الشأن.