تابعنا
إن مشاهدة الذكاء الصناعي من منظور المستقبل البعيد يقوض الحاجة إلى العمل السياسي في الوقت الحاضر لمواجهة التحديات التي تفرضها أنظمة مثل ChatGPT.

جذبت نماذج اللغات الكبيرة (LLM) من OpenAI الصادرة في نوفمبر/تشرين الثاني 2022 ونموذجها الأحدث GPT-4 الذي صدر بمارس/آذار 2023 اهتماماً كبيراً بين الناس، ما أثار تكهنات ومخاوف.

في ضوء ذلك نشر معهد "مستقبل الحياة" Future of Life في 28 مارس/آذار رسالة مفتوحة تدعو لوقف التجارب الكبيرة للذكاء الصناعي لمدة ستة أشهر، تشير إلى المخاوف من سيناريو "الذكاء الخارق" الذي قد يؤدي إلى انقراض البشرية، وهو السيناريو المعروف باسم الخطر الوجودي أو الخطر X.

فوفق الشريك المؤسس لمعهد Future of Life، يان تالين، قد يشكل الذكاء الصناعي المارق خطراً أكبر على الإنسانية من أزمة المناخ.

وأشارت الرسالة إلى تساؤلات جوهرية من قبيل: "هل يجب أن ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والكذب؟ هل علينا أتمتة جميع الوظائف بما ذلك تلك التي تشعرنا بالرضا؟ هل علينا أن نطور عقولاً غير بشرية تتفوق علينا وتحل محلنا؟ هل علينا أن نخاطر بأن نفقد السيطرة على حضارتنا؟

أثارت الرسالة كثيراً من الانتقادات والجدل، لا سيما من معهد أبحاث الذكاء الاصطناعي الموزع (DAIR) التابع لتيمنيت جيبرو. ويرجع ذلك إلى الإطار الذي وضعت فيه السردية السابقة والتي تغذي الضجيج حول الذكاء الاصطناعي تجاه ترويع الناس، وذلك في أثناء الحديث عن "التقنيات القوية للغاية".

الأيديولوجية الكامنة وراء هذه المخاوف التي أعرب عنها معهد مستقبل الحياة هي ما يسمى "النزعة بعيدة المدى" وهدفها تعظيم رفاهية الإنسان بالعقود، إن لم يكن القرون أو الألفيات القادمة، على حساب الحاضر.

الرئيس التنفيذي لشركة FTX، سام بانكمان-فريد، والرئيس التنفيذي لشركة Twitter وSpaceX، إيلون ماسك، ورجل الأعمال المثير للجدل بيتر ثيل، وفيلسوف ما بعد الإنسانية نيك بوستروم، كلهم مؤيدون معروفون للنزعة بعيدة المدى هذه.

يقبع في الخلفية العنصرية للنزعة بعيدة المدى ما يسميه أبيبا بيرهاني "الاستعمار الرقمي"، الذي يعيد تكرار قرون من الاضطهاد لصالح نخبة من أصحاب المليارات في مجال التكنولوجيا يتبنون رؤية "الخير للإنسانية"، التي تشمل استعمار الفضاء أو تجاوز الفناء الإنساني.

مع ذلك، فإن هذه الطوباوية التكنولوجية، التي تعتبر "ذكاء اصطناعياً آمناً" كشرط ضروري لمرحلة التفرد المرغوبة بها للغاية، تصرف الانتباه عن القضايا الملحة حالياً.

التكاليف الخفية للذكاء الصناعي الفائق

بينما تبدو هذه الأنظمة "مستقلة" و"ذكية"، فإنها لا تزال تعتمد على العمالة البشرية بكثافة. وكما توضح كيت كروفورد، يبدأ هذا الأمر باستخراج المعادن وتصنيع الأجهزة. بعد ذلك، يجب تصنيف البيانات -التي غالباً تُستخرَج دون موافقة- لإعطائها معنى، ثم توضع علامة على المحتوى المسيء أو الجنسي أو العنيف.

يقع هذا العمل الذي يوصف بأنه استغلالي ومضر نفسياً وأجره متدنٍّ، في الخفاء. لذا بدل الذهاب نحو الخوف من "أتمتة جميع الوظائف" يجب الانتباه إلى النتيجة التي تفاقم التفاوتات الاجتماعية وتزيد مركزية السلطة.

مشكلة أخرى تتعلق بفكرة "الذكاء الخارق" إذ توهم بأن نماذج اللغة الكبيرة LLM كيانات شبيهة بالإنسان تمتلك العاطفة وتتفهم وربما تمتلك مشاعر وتعتبر عن تعاطف. نتيجة ذلك يميل الناس إلى الاعتماد على نتائج LLM، مثل القصة المأساوية التي دفعت رجلاً إلى الانتحار بعد التفاعل مع chatbot لأسابيع.

واقترح روبوت محادثة طبي آخر يستخدم GPT-3 الانتحار أو بدء التدوير للتغلب على الحزن. وهو مقترح يبدو غير منطقي. إن نماذج الذكاء الصناعي مجرد تجميع كلمات تبدو معقولة لكن يمكنها أن تؤدي إلى مخرجات سخيفة غير دقيقة وضارة ومضللة، كمقال عن فوائد تناول الزجاج المكسر مثلاً.

بالنظر إلى هذه الحقائق، قد يُطرح تساؤل حول مبررات استخدام GPT. ما المشكلة التي تحاول أنظمة اللغة الكبيرة حلها؟ على صعيد متصل، يجب أن نضع في الحسبان أن هذه الأنظمة تستهلك الطاقة بمعدلات فلكية. فمجرد تدريب طراز واحد من Chat-3 يستهلك كهرباء تعادل استهلاك 120 منزلاً أمريكياً سنوياً وينتج عنه انبعاثات ثاني أكسيد كربون مكافئة للصادرة عن 110 سيارات كل سنة.

الحاجة إلى الشفافية والمساءلة

وعليه فإن فكرة وقف التدريب الإضافي لنماذج اللغات الكبيرة للضبط والحوكمة تبدو معقولة. ومع ذلك لا تذكر الرسالة المفتوحة من المعهد من سيتأثر بالتوقف المؤقت وكيفية تنفيذه أو ضمانات بشأنه. فمن السذاجة اعتقاد أن كل شركة أو جامعة أو معهد أبحاث أو فرد يستخدم بدائل مختلفة سيتوقف عن التطوير ببساطة.

كما ستستمر نماذج اللغة الكبيرة قيد التشغيل حالياً مع آثار ذلك. ومع ذلك طردت Microsoft التي استثمرت مليارات الدولارات في OpenAI، والرئيس التنفيذي لتويتر إيلون ماسك الذي تبرع بـ10 ملايين دولار لمعهد Future of Life وعضو مجلس إدارتها، فرق الأخلاقيات حول الذكاء الصناعي الخاصة بهم.

وكرد فعل أولي حظرت إيطاليا ChatGPT قبل أيام وتفكر دول أوروبية في فعل الشيء نفسه. ومع ذلك، من غير الواضح كيف سيؤثر هذا الحظر على التطبيقات الأخرى التي تستخدم نماذج اللغة الكبيرة مثل GPT-4.

في ضوء التأثيرات المختلفة لهذه الأنظمة لا تؤدي السيناريوهات الغامضة والمروعة التي تمتد بعيداً إلى المستقبل، كما صورها معهد Future of Life، إلى خلق تدابير وأنظمة سياسية ملموسة نحن في أمس الحاجة إليها حالياً، لا سيما إذا أخذنا في الاعتبار الإطار الزمني المقترح وهو ستة أشهر.

على صعيد آخر إذا كانت الأجندة السياسية مدفوعة بفكرة "الذكاء الخارق" الذي سيتحكم بالبشرية، يوجد خطر يتمثل في تجاهل المخاطر الآنية، فضلاً عن الحلول الحالية. وعلى الرغم من أن نماذج اللغة الكبيرة لا تشكل خطراً وجودياً على حضارتنا، فإنها تشكل خطراً على جزء كبير منها، بخاصة في حق المهمشين منها بالفعل.

حتى لو أردنا الحفاظ على فكرة "الذكاء الخارق" فينبغي ألا تكون هي الرواية السائدة التي يُركَّز عليها الآن. لأنك إذا صورت هذه النماذج على أنها قوية للغاية ونسبت إليها نوعاً من الوكالة فإنك تحول المسؤولية بعيداً عن الشركات التي تطورها.

لوضع الشركات تحت المساءلة، توجد حاجة إلى الشفافية حول كيفية تطوير أنظمة الذكاء الصناعي والبيانات التي دُرِّبت عليها. لكن بدل ذلك تنص شركة OpenAI التي أصبحت الآن مغلقة المصدر على عكس اسمها، في ما يسمى "التقرير الفني" عن GPT-4 على أن "هذا التقرير لا يحتوي على مزيد تفاصيل حول البنية (بما في ذلك حجم النموذج)، والأجهزة، وإنشاء مجموعة البيانات أو طريقة التدريب أو ما شابه ذلك".

هذه السرية تعوق اتخاذ القرارات الديمقراطية وبالتالي اللوائح الخاصة بالظروف التي يجب أن يجري تطوير ونشر نماذج اللغة الكبيرة خلالها. لا يوجد شيء من قبيل "نموذج واحد لذكاء اصطناعي جيد"، لذا يجب ألا نثق بمجموعة صغيرة ومتميزة نسبياً من الأشخاص الذين يعتقدون أن "الذكاء الخارق" أمر لا مفر منه -وهذا ليس هو الحال- مع كيفية بناء ذكاء اصطناعي "آمن".

بدل ذلك نحتاج إلى بدء إشراك أشخاص متنوعين، بخاصة من أولئك المتضررين، في العملية لتغيير السردية وعلاقات القوة.

جميع المقالات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن TRT عربي.

TRT عربي
الأكثر تداولاً