تابعنا
مع إطلاق نماذج نصية وصورة قوية للغاية مثل ChatGPT-4 وMidjourney، أصبحت المخاطر والتحديات أكثر وضوحاً من أي وقت مضى

أصبحت خوارزميات محرك بحث غوغل الذكية في عام 2009 محلاً للجدل، بعدما ظهرت ميشيل أوباما، زوجة الرئيس الأمريكي آنذاك باراك أوباما، ضمن نتائج البحث عن كلمة غوريلا.

تلك الحادثة كانت البداية الواضحة لما قد تفعله خوارزميات الذكاء الصناعي إن صممها وبرمجها أُناس منحازون تجاه دين أو عِرق أو جنس معيَّن.

منذ ذلك الحين والحديث عن مخاطر أنظمة الذكاء الصناعي في تزايد متناسب طردياً مع تقدم مستوى تلك الأنظمة.

فمثلاً بادئ الأمر كان حديث المختصين يتناول فقدان الوظائف لصالح الروبوتات أو تتبع الخوارزميات الذكية لخصوصية وآثار مستخدمي الإنترنت واستهدافهم بإعلانات، وأكبر المخاطر كانت مسألة الانحياز لمسألة وقضية دون أخرى. كما مرّ بمثال زوجة الرئيس السابق أوباما التي صورتها الأنظمة كغوريلا بناءً على لون بشرتها.

ومع إطلاق نماذج نصية وصورة قوية للغاية مثل ChatGPT-4 وMidjourney، أصبحت المخاطر والتحديات أكثر وضوحاً من أي وقت مضى، وحسب الأب الروحي للذكاء الصناعي والمستقيل حديثاً من شركة غوغل، جيفري هينتون، فإن الخطر الحالي هو كمية المعلومات المضللة التي يُمكن أن تُظهرها روبوتات الدردشة تلك.

والسبب برأيه أن الإنترنت يستخدم بياناته لتدريب أدوات الذكاء الصناعي التوليدية، مما يجعل هذه الأنظمة مثل ChatGPT وBard تنشر الأكاذيب التي لا نهاية لها بطريقة تبدو معقولة، لدرجة أن مستخدمي الإنترنت لن يعرفوا ما هو حقيقي مما هو زائف.

لكن مستوى المخاطر المستقبلية المتوقعة وفي ظل المنافسة السريعة بين الشركات فإننا سنصل إلى آلات أذكى من البشر مما ينذر بتهديد وجودي للحضارة الإنسانية، وفقاً لهينتون.

وفي دراسة أجراها مركز الذكاء الصناعي في ولاية بنسلفانيا في الولايات المتحدة، بيّنَ مدير المركز شيام سندار (S. Shyam Sundar) أن التغطية الإعلامية الهائلة والمبالغ فيها صنعت صورة خاطئة عن الذكاء الصناعي لدى الناس.

وقال: "أظهر عديد من الدراسات في مختبري أنه عندما يجري تحديد الجهاز، لا الإنسان، بوصفه مصدراً للتفاعل، فإنه يطلق اختصاراً ذهنياً في أذهان المستخدمين نسميه الكشف عن مجريات الآلة".

وأضاف: "والمقصود بهذا الاختصار هو الاعتقاد بأن الآلات دقيقة وَموضوعية وغير متحيزة ومعصومة من الخطأ، ويؤدي إلى ثقة المستخدم بالآلات بشكل مفرط".

كما أظهرت الأبحاث أن الناس يتعاملون مع أجهزة الكمبيوتر باعتبارها كائنات اجتماعية عندما تُظهِر الآلات أدنى تلميح للإنسانية، مثل استخدام لغة المحادثة، حسب سندار.

وفي هذه الحالات يطبق الناس القواعد الاجتماعية للتفاعل البشري، مثل الأدب والمعاملة بالمثل. لذلك، عندما تبدو أجهزة الكمبيوتر حساسة، يميل الناس إلى الوثوق بها بشكل أعمى.

ويُصِرّ أستاذ الذكاء الصناعي شيام سندار على أنّ هناك حاجة إلى التنظيم لضمان أن منتجات الذكاء الصناعي تستحق هذه الثقة ولا تستغلها.

ويتابع: "يشكل الذكاء الصناعي تحدياً فريداً لأنه على عكس الأنظمة الهندسية التقليدية لا يمكن للمصممين التأكد من كيفية تصرف أنظمة الذكاء الصناعي".

هذه المخاوف بدأت بالانتقال من الخبراء والمختصين إلى القادة السياسيين حول العالم، إذ قال رئيس الولايات المتحدة جو بايدن في شهر أبريل/نيسان الماضي: "الذكاء الصناعي يمكن أن يساعد في معالجة الأمراض وتغير المناخ، ولكنه قد يُضِر أيضاً بالأمن القومي وَيُعطِّل الاقتصاد بطرق مزعزعة للاستقرار".

سنوات بين تشريع القوانين وقفزات الذكاء الصناعي

وفي مطلع مايو/أيار الجاري، دعا البيت الأبيض الرؤساء التنفيذيين لشركات غوغل ومايكروسوفت وأوبن إيه آي وأنثروبيك من أجل مناقشة بعض تفاصيل مسودة التشريعات التي تنظم عمل تقنيات الذكاء الصناعي في البلاد والتي تريد الحكومة تعميمها.

خلال الاجتماع قدم كل من الرئيس جو بايدن ونائب الرئيس كاميلا هاريس بعض التفاصيل المحددة حول أنواع التنظيمات التي ستدعمها الإدارة، وبيّنا أن الإدارة ملتزمة القيام بدورها لضمان استفادة الناس بأمان من الذكاء الصناعي.

وشددا على أن الشركات تتحمل "مسؤولية أخلاقية ومعنوية وقانونية" لضمان سلامة منتجاتها.

في اليوم الذي تلا الاجتماع، أعلنت الإدارة عن استثمار جديد في الذكاء الصناعي "الجدير بالثقة".

وقالت المؤسسة الوطنية للعلوم، التي تقود التمويل، إنّ الاستثمار يرفع تمويل الإدارة لمعاهد الذكاء الصناعي إلى ما يقرب من نصف مليار دولار حتى الآن.

وعلى الصعيد نفسه قال رئيس لجنة التجارة الفيدرالية الأمريكية إن "الوكالة ملتزمة استخدام القوانين الحالية لمراقبة بعض مخاطر الذكاء الصناعي".

وأضاف: "سيصدر مكتب الإدارة والميزانية مسودة إرشادات حول الطرق التي يجب أن تستخدم بها الوكالات الفيدرالية أنظمة الذكاء الصناعي".

من جهته قدم السناتور مايكل بينيت مشروع قانون في 27 أبريل/نيسان من شأنه أن ينشئ فريق عمل للنظر في سياسات الولايات المتحدة بشأن الذكاء الصناعي، وتحديد أفضل السبل لتقليل التهديدات الخصوصية والحريات المدنية والإجراءات القانونية الواجبة.

وفي حديثها إلى المراسلين عقب الاجتماع، وصفت السكرتيرة الصحفية للبيت الأبيض كارين جان بيير المحادثة بأنها "صادقة" و"صريحة".

وأضافت: "إن مزيداً من الشفافية من شركات الذكاء الصناعي، بما في ذلك منح الجمهور القدرة على تقييم منتجاتهم وتقييمها، سيكون أمراً بالغ الأهمية لضمان أن تكون أنظمة الذكاء الصناعي آمنة وجديرة بالثقة".

حُمّى البحث عن تشريعات تنظم عمل تقنيات الذكاء الصناعي سرعان ما انتقلت إلى دول ومنظمات أخرى، فمثلاً:

الاتحاد الأوروبي: توصل أعضاء البرلمان الأوروبي إلى اتفاق مبدئي بشأن مشروع قانون الذكاء الصناعي للاتحاد الأوروبي، الذي يمكن أن يمهد الطريق لأول قوانين شاملة في العالم تحكم التكنولوجيا.

حددت المسودة حقوق النشر باعتبارها قيمة أساسية للجهود المبذولة لإبقاء الذكاء الصناعي تحت المراقبة.

وقال مجلس حماية البيانات الأوروبي، الذي يوحد هيئات مراقبة الخصوصية الوطنية في أوروبا، في أبريل/نيسان، إنه أنشأ فريق عمل بشأن ChatGPT، وهي خطوة أولى مهمة محتملة نحو سياسة مشتركة لوضع قواعد الخصوصية على الذكاء الصناعي.

المملكة المتحدة: أعلنت هيئة تنظيم المنافسة في المملكة المتحدة عن مراجعة جديدة "لتقصي الحقائق" لسوق الذكاء الصناعي لتقييم الحاجة إلى لوائح ومبادئ لحماية المنافسة.

وقالت الهيئة في بيان إنها ستبدأ في "دراسة تأثير الذكاء الصناعي على المستهلكين والشركات والاقتصاد وما إذا كانت هناك حاجة إلى ضوابط جديدة".

مجموعة G7: قال وزراء مجموعة الدول الصناعية السبع الكبرى بعد اجتماع يومي 29 و30 أبريل/نيسان في اليابان: "إن مجموعة الدول السبع المتقدمة يجب أن تتبنى لائحة قائمة على المخاطر بشأن الذكاء الصناعي.

ذات المخاوف والتحركات أبدتها أيضاً كل من أستراليا وفرنسا وأيرلندا وإسبانيا وإيطاليا، بل إن الأخيرة حظرت ChatGPT باديء الأمر، ثم سمحت به لمن هم فوق سن 18. يضاف إلى القائمة الصين، رغم تاريخ استخدامها السيئ للذكاء الصناعي.

التشريعات التي تنظم عمل الذكاء الصناعي.. بين الممكن والمستحيل

يرى عديد الخبراء يرون صعوبة في تنظيم القوانين، وذلك لأن التشريعات لا يمكن لها مواكبة التطور السريع الحاصل.

كما يزعم بعض قادة صناعة التكنولوجيا أمثال إيلون ماسك أن الذكاء الصناعي معقد للغاية بالنسبة إلى القوانين الحالية، لأنه حتى منشئو تلك التقنيات لا يفهمون تماماً ما يصنعونه.

فيما يرى قسم من المختصين أن التنظيم يمكن أن يقود إلى ما يسمى "تدمير الإبداع"، وهي نظرية تقترح تفكيك القواعد والممارسات القديمة والسارية من أجل ازدهار الابتكار.

لكن رغم ذلك فإن هناك شبه إجماع على ضرورة وجود رؤى موحدة بين مختلف الأطراف والقوى الفاعلة، على ضرورة تجنيب (العلم وحقوق الإنسان) من المزايدات والأجندة الخاصة بالدول وسياسات الشركات.

ومع ذلك يرى الخبراء أن هناك عائقين أمام هذا الإجماع، الأول: مَن المسؤول عن وضع المعايير التي تحكم القوانين وتحدد ما هو أخلاقي وما هو غير ذلك؟ هل يأخذ التقييس التقني زمام المبادرة في تنظيم الذكاء الصناعي من خلال جمعيات مثل IEEE وISO، والوكالات الوطنية مثل NIST في الولايات المتحدة، ومعايير CEN وCENELEC وAFNOR وAgoria وDansk في أوروبا، أم جهات أخرى؟

والعائق الثاني وهو المهم: مَن بمقدوره إجبار الصين على التزام المعايير في حال تعميمها؟ وهي لاعب مهم في صناعة تقنيات الذكاء الصناعي، وتعريف حقوق الإنسان عندها مختلف عن كل دول العالم، وممارساتها مع الإيغور باستخدام تقنيات AI خير دليل.

TRT عربي