تعجز بعض أنظمة الذكاء الصناعي عن إدراك بعض الوجوه لمجرد أن لون بشرتها سمراء (Others)

ويأتي هذا الفيلم ضمن سلسلة من الوثائقيات مثل Social Dilemma، و Connected التي تحاول الشبكة من خلالها تقريب البعيد وتبسيط المعقد في ما يخص عالم تكنولوجيا المعلومات، وبالأخص تكنولوجيا الذكاء الصناعي التي تعتبر واحدة من أبرز التكنولوجيات التي تحظى بتداعيات وتأثيرات ثورية على مستوى حياتنا نحن البشر.

وتكشف شاليني كانتايا، وهي مخرجة ومنتجة الفيلم، أن الفيلم الذي استمر العمل عليه على مدار سنتين يهدف بالأساس إلى أن المزيد من الحوار والتعلم حول هذه التقنيات الحساسة والأنظمة الدقيقة من شأنه أن يسهم في تسريع سن القوانين والسياسات التي قد تعمل على الحد من مخاطرها الجانبية بشكل أكثر فاعلية.

وهي من خلال عملية تبسيط هذه التكنولوجيات لا تدفع الناس إلى تجاوز عملية الفهم وحسب، بل إلى اتخاذ إجراءات على الأرض من شأنها أن تضع شركات تكنولوجيا المعلومات والحكومات على حد سواء أمام مسؤولياتها في حماية المستخدمين والمواطنين من أي انتهاكات تتعلق بخصوصياتهم أو أمنهم الرقمي، فهي تعتقد، ككثير من المطلعين على هذا المجال غيرها، أن هذه التقنيات باتت تؤثر على حياتنا اليومية بشكل مباشر، فلم تعد هذه التقنيات في مستوى تسهيل الخدمات وحسب، بل أصبحت تضطلع باتخاذ القرارات المصيرية التي يكون لها بالغالب تأثيرات جوهرية على مسيرة حياتنا المهنية أو التعليمية على سبيل المثال.

شاليني كانتايا مخرجة ومنتجة فيلم Coded Bias (Others)

وقد حاولت كانتايا عرض فكرتها عن التحيز في خوارزميات الذكاء الصناعي في فيلمها من خلال إظهار العنصر النسائي من المتخصصات في هذا المجال حصراً مثل جوي بولامويني، وديبورا راجي، وميريديث بروسارد، وكاثي أونيل، وزينب توفيكجي، وصفية نوبل، وتيمنيت جيبرو، وفيرجينيا يوبانكس.

وتبرز جوي بولامويني كإحدى الشخصيات المركزية في الفيلم، وهي التي تنبهت، ضمن العديد من المتخصصين، إلى الأبعاد الأخلاقية لأنظمة الذكاء الصناعي، خصوصاً في ما يتعلق بالتمييز ضد الأقليات أو الإثنيات المختلفة أو الملونين.

وتروي جوي أنه في أثناء عملها على تطوير مرآة ذكية من أجل تدعيم وتحفيز المعنويات قد استعانت بأنظمة تعرّف الوجه، وبسبب كونها ذات بشرة سمراء، اكتشفت أن هذه الأنظمة غير قادرة على تعرّف وجهها ما لم تضع قناعاً أبيض، وهو ما جعلها تفكر ملياً في التداعيات الخطيرة على المساواة الاجتماعية في حال استمرت هذه الأنظمة على موالها الحالي في إنتاج أحكام متحيزة.

تعتبر كاثي أونيل، وهي من المشاركات في الفيلم، واحدة من أبرز الذين رفعوا أصواتهم للتحذير من التداعيات السلبية لأنظمة الذكاء الصناعي المتحيزة على حياتنا. فهذه الأنظمة قد تكون كارثية ومدمرة على حد وصفها.

فهذه الأنظمة المزودة بخوارزميات تعمل بطريقة غير مفهومة وغير متوقعة تنتشر بسرعة كبيرة، وباتت تتطفل على الكثير من تفاصيل حياتنا اليومية، والخطير في الموضوع أن هذه الأنظمة باتت تتمتع بحصانة كونها أنظمة ذات حقيقة مجردة، ولا تحظى بمسؤولية أخلاقية كونها أنظمة غير عاقلة، وهو ما يعني أن الأضرار الجانبية الناجمة عنها لا تحظى بمسؤولية قانونية. فإذا حرم أحد أنظمة الذكاء الصناعي أحد الطلاب من الالتحاق بالجامعة بسبب لون بشرته على سبيل المثال، فلا أحد يملك مقاضاة هذا النظام بسبب أحكامه العنصرية.

جوي بولامويني أثناء تجربتها لأنظمة التعرف على الوجه والتي عجزت عن إدراكها بسبب لون بشرتها (Others)

تؤكد أونيل في كتابها "أسلحة الرياضيات المدمرة-Weapons of Math Destruction" أن الرياضيات، وهي مجموعة الرموز التي تشكل الأساس لعمل الخوارزميات في أنظمة الذكاء الصناعي، باتت "تستخدم درعاً لحماية الممارسات الفاسدة". فجوهر نظرية أونيل هو أن هذه الخوارزميات باتت تستخدم المعلومات التاريخية أساساً لتوقع المستقبل. وفي الوقت الذي تتركز فيه الخوارزميات بيد مجموعة قليلة من الناس، فإن هذه المجموعة سوف تتمتع بقوة فائقة تستطيع من خلالها التحكم بحياة ملايين من البشر. فمن خلال هذه الخوارزميات يمكن لهذه الفئة توقع من سيكون أهلاً للحصول على قرض، أو وظيفة، أو فرصة تعليم، أو سفر.

وفي الوقت الذي يعاني فيه العالم من إشكالية جوهرية في عدم المساواة، فإن الخوارزميات التي تعمل على تعميق هذه اللامساواة من خلال شفراتها المتحيزة ستؤدي إلى تركيز القوة والنفوذ في يد القليل من هذه القلة، ولا شك أن عملية تكديس النفوذ بهذا الشكل ستكون لها تداعيات وخيمة على أمن وسلامة المجتمعات الإنسانية.

في الحقيقة، إن مشكلة الذكاء الصناعي لا تكمن فقط في قدرته على إجراء توقعات مستقبلية بناء على تخزين معلومات الماضي والربط بينها، ومن ثم تحليلها واستنباط الأحكام منها، فالمشكلة أبعد من ذلك بكثير، وهي تتعلق بقدرة هذه الأنظمة على بناء المستقبل وليس مجرد التنبؤ به. فما كان في دائرة المتوقع سابقاً أصبح، بفضل هذه التقنيات والأنظمة، في دائرة المؤكد. فالفكرة الجوهرية في الذكاء الصناعي هي تقليل وتضييق مساحة الاحتمالات، والانفتاح أكثر على نطاق اليقينيات، وذلك من أجل الحصول على النتائج المرجوة سواء تجاه تعظيم رأس المال والربح كما في الأنظمة الرأسمالية، أو تجاه الضبط الاجتماعي والاستقامة الأهلية كما في الأنظمة الشمولية.

تبرز الإشكالية في الذكاء الصناعي وفق هذا التصور في التوفيق ما بين المرجو من اليقينيات، وقدرات هذه الأنظمة التي ما زالت تتصف بعدم الدقة والتحيز، وهو ما يعني بالنتيجة انكماشاً في عنصر الثقة. والخوف يتبدى هنا من تزايد اعتمادنا يوماً بعد يوم على أنظمة لا نشعر معها بالثقة، فالمرأة المؤهلة التي تشاهد أن أنظمة التوظيف في شركة تدعي الليبرالية المثالية مثل أمازون، وكيف أن خوارزمياتها تنحاز للرجال في عمليات التوظيف سوف تفقد الثقة بهذا النظام، ويتعمق لديها بالتالي الإحساس بالغبن والإقصاء. وإذا ما انسحب هذا الأمر على فئات أخرى في المجتمع كالمهاجرين، أو الملونين، فإن انعدام الثقة هذا من شأنه أن يقوض سلامة وأمن المجتمعات الإنسانية، ويجعل من مهمة دعاة المساواة والحقوق المدنية مستحيلة.

بالأخير، يتزامن عرض فيلم Coded Bias مع التشريعات التي من المتوقع أن يقرها الاتحاد الأوروبي لتنظيم عمل خوارزميات الذكاء الصناعي، ليكون الاتحاد الأوروبي أول كيان سياسي يقوم بتقدير مقترحات قوانين من هذا القبيل. وعلى الرغم من أن تشريع مثل هذه القوانين في الاتحاد الأوروبي قد يأخذ سنوات بسبب التعقيدات الداخلية، فإن هذه الخطوة تعتبر في غاية الأهمية، وتعبر عن وعي مبكر بخطر هذه التقنيات.

وسوف تطلب لوائح الاتحاد الأوروبي من الشركات المزودة لأنظمة الذكاء الصناعي في المناطق الحساسة وعالية الخطورة تزويد المشرفين بإثباتات على سلامتها، بما في ذلك تقييمات المخاطر، والوثائق التي توضح كيفية اتخاذ التكنولوجيا للقرارات، كما يجب أن تضمن الشركات أيضاً الإشراف البشري على كيفية إنشاء الأنظمة واستخدامها.

TRT عربي