تابعنا
تبقى الحاجة ملحَّة إلى وضع تشريعات رقابية على نماذج الذكاء الصناعي لمعالجة المشكلات الملحَّة التي نعيشها، خصوصاً المتعلقة بالتحيز وخطابات العنصرية والكراهية وتركيز السلطة واللا مساواة.

لا يكاد يخلو يوم حتى تطالعنا عناوين الأخبار بعديد من مستجدات الذكاء الصناعي من ناحية تطوراته وتطبيقاته المتسارعة، أو من ناحية الجدل المصاحب له والمتعلق بالمخاطر التي قد يفرضها على حياة الإنسان ومستقبله.

في الآونة الأخيرة تداولت وسائل الإعلام ومنصات التواصل الاجتماعي العريضة المفتوحة الصادرة عن معهد Future of Life والتي يدعو الموقّعون عليها، وهم ثلة من كبار التكنولوجيين في العالم، إلى التوقف فوراً لمدة ستة أشهر على الأقلّ عن تدريب نماذج الذكاء الصناعي الأكثر تقدُّماً وقوة من نموذج ChatGPT-4.

ومعهد Future of Life هو مؤسسة غير ربحية أسسها عام 2014 مجموعة من العلماء المهتمين بالمخاطر الوجودية التي تواجه البشرية، بما في ذلك التكنولوجيا الحيوية والأسلحة النووية وتغيُّر المناخ والذكاء الصناعي، وتموّلها عدة مؤسسات خاصة مثل Musk Foundation.

وقد أخذت العريضة المفتوحة صدىً واسعاً نظراً إلى حجم الأسماء الموقّعة عليها، فحسب وكالة رويترز ضمّت قائمة الموقعين الأولى كلّاً من الرئيس التنفيذي لشركة تسلا إيلون ماسك، ورائدَي الذكاء الصناعي يوشوا بنجيو وستيوارت راسل، والشريك المؤسس لشركة آبل ستيف وزنياك، وعماد موستاك الرئيس التنفيذي لشركة Stability AI، والمؤلف المعروف يوفال نوح هراري.

وقد تضمنت بعض الأسماء الأخرى مثل الرئيس التنفيذي السابق لشركة مايكروسوفت، والرئيس التنفيذي لشركة OpenAI سام التمان، والشخصية الخيالية جون ويك، وقد اتضح لاحقاً أن إدراجهم جاء عن طريق الخطأ، وذلك لغياب عنصر التحقُّق في العريضة التي نُشرت بشكل مفتوح ومتاح للجميع الوصول إليها والتوقيع عليها.

وفي وقت سابق من هذا الشهر أصدرت شركة OpenAI نموذجها الجديد من الذكاء الصناعي باسم GPT، وهو نموذج أكثر تفوُّقاً من الذي سبقه وقادر على اجتياز الاختبارات الموحدة في بعض التخصصات مثل القانون وغيره، وقادر على التعاطي مع محتوى غير نصّي، كالصور.

وعلى الرغم من أن النموذج ما زال قيد الاختبار فإنه عزّز المخاوف السابقة المتعلقة بقدرات هذه النماذج ومدى التهديدات والمخاطر التي قد تفرضها على نمط عيش الإنسان، وما إذا كنا في طريقنا إلى تطوير نماذج الذكاء الصناعي العامّ GAI التي تضاهي بقوتها الذكاء البشري.

وقد ورد في العريضة أن التطورات الأخيرة في الذكاء الصناعي وفق معهد Future of Life أدّت إلى "سباق خارج عن السيطرة" لبناء ونشر نماذج الذكاء الصناعي التي يصعب التنبؤ بها أو حتى إدارتها.

ويرى الموقعون على العريضة في حجتهم التي تتشابه مع حجج سابقة أن الافتقار إلى التخطيط والإدارة لأنظمة الذكاء الصناعي هذه مدعاة للقلق، وأنه لا ينبغي تطوير أنظمة قوية للذكاء الصناعي حتى تصبح الآثار المترتبة على تلك الأنظمة معروفة جيداً ويمكن إدارتها والتحكم بها.

في المجمل، تطرح العريضة أربعة تساؤلات افتراضية مشحونة بالقلق والتوجس تتعلق بالانعكاسات التي قد تفرضها نماذج الذكاء الصناعي على نمط عيش البشر، مثل فقدان جميع الوظائف لصالح هذه الأنظمة أو حتى فقدان السيطرة على الحضارة الإنسانية.

بشكل أدقّ، تتساءل العريضة عما إذا كان علينا أن ندع الآلات تملأ بيئتنا الإعلامية بالدعاية والكذب، أو علينا أتمتة جميع الوظائف، وتطوير عقول آلية قد تتفوق علينا وتحلّ محلّنا، وأخير إن كان ينبغي لنا أن نجازف بفقدان السيطرة على حضارتنا.

ومن أجل مواجهة هذه التحديات والمخاطر المحتمَلة يقترح مؤلفو العريضة والموقعون عليها حلّاً من شِقّين: أولاً حثّ منشآت أبحاث الذكاء الصناعي على "التعليق الفوري لمدة 6 أشهر على الأقل لتدريب أنظمة الذكاء الصناعي الأكثر قدرة وتفوقاً على نموذج GPT-4 من أجل مواجهة هذه المخاطر المحتملة. ثانياً عمل المبرمجين والخبراء في الموضوع والباحثين المستقلين خلال هذه الفترة المؤقتة معاً لوضع إجراءات أمان وبروتوكولات موحَّدة لتصميم وتطوير أنظمة الذكاء الصناعي تهدف إلى ضمان أن هذه الأنظمة الذكية "آمنة بما لا يدع مجالاً للشك".

وعلى الرغم من أن الأهداف تبدو منطقية عموماً، فإنها جاءت عامة ومبهمة في نفس الوقت. فلم تقدم العريضة أي تفاصيل تتعلق بالتعريف الحقيقي لقوة GPT4 وكيفية قياس هذه القوة من أجل تَجنُّب نماذج "أكثر قوة" لاحقاً. يعود ذلك أساساً إلى أن شركة OpenAI على وجه الخصوص بذلت كثيراً من الجهود تجاه عدم الكشف عن أي تفاصيل تقنية تتعلق بآلية تشغيل GPT-4.

يرى عديد من الخبراء، منهم على سبيل المثال تيمنيت جيبرو المتخصص في أخلاقيات الذكاء الصناعي، وإميلي بندر، أن المخاوف العامّة والافتراضية في نفس الوقت من الذكاء الصناعي خصوصاً تلك المتعلقة بفرضية الاستبدال الكبير ونهاية الحضارة الإنسانية، تبدو بعيدة المنال وتهدف إلى حرف انتباه الناس عن المشكلات الحقيقية والآنية التي قد تنجم عن استخدام نماذج "اللغة الكبيرة"، وهي التكنولوجيا المشغلة لأنظمة ChatGPT.

بعبارة أخرى، يرى هذا الفريق من الخبراء أن التركيز على مخاطر الذكاء الصناعي يجب أن تنصبّ على مشكلات راهنة أصبحت تشكّل عبئاً على حياتنا، من قبيل تركيز السلطة بيد حفنة قليلة من الناس، وتنشيط أدوات القمع، والإضرار بالنظام البيئي عن طريق إهدار موارد الطاقة، وتلويث النظام المعلوماتي من خلال سياسات التحيز والكراهية والتضليل، وهي مشكلات قد تزيد سوءاً مع تطور نماذج ذكاء صناعي منفلتة لا تخضع للرقابة.

في المجمل، يتفق الفريقان، أصحاب نزعة نهاية العالم، وأولئك الأكثر واقعية، على أن أنظمة الذكاء الصناعي تطورت بسرعة كبيرة منذ مطلع العام، الأمر الذي حرم المتخصصين والعلماء والخبراء القدرة على التكيف واجتراح ما يلزم من أجل تخفيف المضارّ.

لذلك أصبحنا نجد ردّ فعل متسرعاً من عديد من الحكومات التي اختارت أسلم الطرق، وهو حظر النموذج كلّيّاً، وهو الخيار الذي حضّت عليه العريضة أيضاً في حال لم يُتوافَق على آلية لعملية الإبطاء والسماح بوقت كافٍ للنظر في بروتوكولات الحماية والأمان التي يجب أن تصاحب تدريب نماذج الذكاء الصناعي.

بطبيعة الحال، يوجد شكّ كبير في قدرة الحكومات على التكيف السريع مع التطور الفائق والسريع لأنظمة الذكاء الصناعي، إذ رأينا كيف تقاعست هذه الحكومات عن مواكبة التطورات في نماذج سابقة كمنصات التواصل الاجتماعي، الأمر الذي عرّض خصوصية وأمن المستخدمين لكثير من الضرر. حاولت إدارة الرئيس بايدن وضع وثيقة سُمّيَت"قانون حقوق الذكاء الصناعي"، لكنها لم تأخذ صفة القانون بعد، لذلك فهي غير ملزمة.

ربما تملك عريضة معهد The Future of Life كثيراً من الوجاهة، ولكنها لا تخلو من المبالغة. إن الحديث عن تحديات الذكاء الصناعي العامّ يشبه إلى حدّ كبير الحديث عن الإشكاليات المحتمَلة الناجمة عن الازدحام البشري على المريخ. ولكن تبقى الحاجة ملحَّة إلى وضع تشريعات رقابية على نماذج الذكاء الصناعي لمعالجة المشكلات الملحَّة التي نعيشها، خصوصاً المتعلقة بالتحيز وخطابات العنصرية والكراهية وتركيز السلطة واللا مساواة.

جميع المقالات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن TRT عربي.


TRT عربي