الهلوسة في سياق الذكاء الصناعي.. ماهيتها وطرق التخفيف منها
الهلوسة في سياق الذكاء الصناعي هو مصطلح مجازي يستخدم لوصف السيناريوهات التي يولد فيها النموذج مخرجات تنحرف بشكل كبير عن بيانات أو توقعات العالم الحقيقي.
Regulating Artificial Intelligence / صورة: AP (AP)

أصبح الذكاء الصناعي (AI) بشكل تدريجي جزءاً لا يتجزأ من حياتنا اليومية، ويشكّل، رغم الغموض الذي يكتنفه، الطريقة التي ندرك بها العالم من حولنا وتفاعلنا معه. يثير فينا الكثير من المخاوف ولكنه يبعث كثيراً من الأمل في تحقيق قفزات كانت في السابق للبشر مجرد خيال علمي.

ففي عالم تصبح فيه المشكلات خارج نطاق سيطرة الإنسان، يحتاج إلى تكنولوجيا تعزز من قدراته وتطلق عنان إمكانياته لاجتراح الحلول لها ومعالجتها أو حتى التكيف معها. لا شك أن الكثير منا ما زال يتعجب من قدرات الذكاء الصناعي المذهلة، ولكن يجب أن نبقى يقظين لعيوبه الكامنة والتي تشكل "الهلوسة" إحدى أبرز عناوينها.

لا تعد "هلوسة الذكاء الصناعي" بالأمر الهين خصوصاً عندما يعمل على توليد معلومات خاطئة يمكن أن تكون مضللة وتؤدي إلى تشويه سمعة أحدهم. هنا يجب الالتفات إلى أن تطبيقات الذكاء الصناعي التي تقوم على نموذج اللغات الكبيرة مثل ChatGPT قد أصبحت تعتمد من قبل الكثيرين كمحركات بحث، ولذلك قد تحظى نتائجها لدى البعض بالمصداقية والموثوقية، الأمر الذي قد يترتب عليه إشكالات قانونية وأخلاقية إذا ما تبين لاحقاً أن هذه النتائج غير صحيحة.

خذ على سبيل المثال ما نشرته صحيفة واشنطن بوست من أن أستاذ قانون اكتشف أن ChatGPT قد وضعه على قائمة خبراء القانون الذين ارتكبوا جريمة التحرش الجنسي وهو الأمر الذي لم يحدث، وفق الصحيفة. كما ذكر موقع Ars أن عمدة مدينة في أستراليا زعم أنه اكتشف بأن ChatGPT ادعى أنه أدين بالرشوة وحُكم عليه بالسجن وهو الأمر الذي يتنافى تماماً مع الواقع، وفق التقرير.

وإذا كانت صفة القصدية تنتفي عن هذه الأخطاء أو "الهلوسات"، ومع ذلك فإن أخذها على محمل الجد يبدو أمراً ضرورياً للغاية. فبعد وقت قصير من إطلاق نموذج ChatGPT غرد الرئيس التنفيذي لشركة Open AI سام إلتمان بالقول إن "نموذج ChatGPT محدود بشكل لا يصدق، ولكنه ينفذ أعمالاً جيدة بما يكفي في بعض الأشياء لخلق انطباع مُضلل بالعظمة. من الخطأ الاعتماد عليه في أي شيء مهم في الوقت الحالي. إنه دليل على التقدم، لكن لدينا الكثير من العمل لنفعله بشأن الموثوقية والمصداقية". وغرد لاحقاً بأن هذه النماذج تعرف الكثير ولكن الخطورة أنها "واثقة بنفسها وخاطئة في كثير من الأوقات".

بشكل عام تعتمد روبوتات الدردشة المدعومة بالذكاء الصناعي مثل ChatGPT على نوع من الذكاء الصناعي يسمى "نموذج اللغات الكبيرة" المعروف اختصاراً بـ LLM لتوليد الردود المطلوبة. يجري تدريب هذا البرنامج على الملايين من مصادر النصوص التي يمكنها لاحقاً من توليد نصوص وقراءتها بطريقة تحاكي البشر. ولكنها في ذات الوقت معرضة لارتكاب الأخطاء. في الأدبيات الأكاديمية، غالباً ما يطلق باحثو الذكاء الصناعي على هذه الأخطاء اسم "هلوسة" أو "Hallucinations".

بعبارة أخرى، الهلوسة في سياق الذكاء الصناعي هو مصطلح مجازي يستخدم لوصف السيناريوهات التي يولد فيها النموذج مخرجات تنحرف بشكل كبير عن بيانات أو توقعات العالم الحقيقي. وفي حين أنه يقترب من الاستخدام النفسي للمصطلح للدلالة على التصورات التي ليس لها أساس في الواقع، فإن الهلوسة بالذكاء الصناعي هي ظاهرة رقمية بامتياز ولا تدل على أي وعي متشكل أو تجربة ذاتية من جانب أنظمة الذكاء الصناعي.

أي أنه خطأ تقني ولا يعني بالضرورة أن الذكاء الصناعي قد شكّل وعياً ذاتياً أنتج حقيقة مغايرة للواقع. لذلك لا يمكن اتخاذ هلوسة الذكاء الصناعي ذريعةً لنفي المسؤولية عن القائمين عليه في حال وقعت أخطاء تؤدي إلى أضرار أخلاقية وحقوقية على المستخدمين.

لتقريب الصورة يمكن التفكير بنظام التعليم العميق Deep Learning System والذي جرى تدريبه لتحديد الأشياء في صورة ما. إذا كان هذا النظام يحدد بشكل غير صحيح برتقالة في الصورة لا وجود لها، فهذا يعني أن النظام تعرض لشكل من أشكال الهلوسة وهو مظهر من مظاهر إدراك النظام للأنماط بشكل خاطئ. يعود ظهور هذا الخطأ إلى عوامل من قبيل الإعداد المفرط أو عدم كفاية بيانات التدريب أو خلل في برمجة التصاميم والأنماط.

هناك أيضا نموذج DeepDream في مجال التعرف على الصور. فالبنية الأساسية لـDeepDream هي شبكة عصبونية (أوعصبية) تلافيفية تعرف اختصاراً بـ(CNN) أي Convolutional Neural Networks ، وهي نوع من الشبكات العصبية الاصطناعية المصممة لمعالجة البيانات المرئية. تحاكي شبكات CNN القشرة البصرية للدماغ البشري لتفسير الصور وفهمها. وتتعلم هذه الشبكات، المدربة على ملايين الصور، التمييز بين السمات والأشياء والأنماط المختلفة.

على الرغم من ذلك، فمع DeepDream، أضاف باحثو Google تطوراً غير عادي. فبدلاً من مجرد تحديد ميزات الصور كما هي، يضخّمها الذكاء الاصطناعي. عندما يجري إدخال صورة في الشبكة العصبية تتضمن وجه كلب، على سبيل المثال، فإن الذكاء الاصطناعي لا يكتشف وجه الكلب فقط، بل إنه يكثف ويبرز خصائص الكلاب. يبدو الأمر كأن الذكاء الاصطناعي لا "يرى" الأشياء في الصورة فحسب، بل "يحلم" بها أيضاً في تكوين وبيئة أكثر تفصيلاً. يجري بعد ذلك تكرار عملية التضخيم هذه عدة مرات، والنتيجة صورة جرى تحويلها بطرق غريبة وغير متوقعة تماماً ولا تمت للواقع بِصلة. علاوة على ذلك تبدو الأشكال والأنماط المنشأة غريبة وتجريدية وكأنها عناصر فضائية بعيدة كل البعد عن التفسير البشري.

من حيث الجوهر، يتصرف برنامج DeepDream كفنان يرسم أحلام اليقظة بخيال جامح، ويترجم ويضخم الميزات في المواد التي أدرجت في مصادره. "الهلوسة" التي يخلقها النموذج في هذا السياق ليست عشوائية، ولكنها نتيجة للتدريب المكثف للذكاء الاصطناعي وقدراته عالية الضبط في التعرف على الأنماط.

يجادل بعض خبراء الذكاء الصناعي بأن هذا المنتج المغاير للواقع الناجم عن "الهلوسة" وبالرغم من التبعات الأخلاقية والقانونية إلا أنه يعطي انطباعاً حقيقياً عن قدرة هذه النماذج التوليدية وتفسح المجال أمام إعادة النظر في طبيعة الإدراك وتفسيرات الواقع وخلق نماذج للإبداع غير مسبوقة.

ولكن تبقى المخاوف سيدة الموقف. فبالنظر إلى التداعيات المحتملة لهلوسة الذكاء الصناعي، لا سيما في المجالات الحرجة مثل الرعاية الصحية أو المركبات ذاتية القيادة، فمن الأهمية بمكان تطوير استراتيجيات للتخفيف من حدوثها، مع الاعتراف بأن التخلص منها تماماً يعد مطلباً غير واقعي. تبدأ عملية التخفيف من خلال تنويع البيانات المستخدمة في عملية التدريب وتجنب المتحيزة منها قدر الإمكان، الأمر الذي يمنع أو ربما يقلل بشكل كبير من التصورات المنحرفة التي قد يلجأ إليها الذكاء الصناعي.

يمكن أيضاً التقليل من الإجهاد المترتب على عملية تدريب النماذج على بيانات جديدة وذلك باستخدام طرق تقنية شديدة التخصص مثل Weight Decay للموازنة بين البيانات. تمنع هذه التقنيات الذكاء الصناعي من الذهاب نحو التعقيد المفرط، وتمنحه فرصة نحو التعميم بشكل أفضل فيما يتعلق بالبيانات غير المرئية والتي لم يتدرب عليها بعد. تأتي بعد ذلك أهمية التحقق من النموذج من خلال عمليات الفحص المنتظمة لإيجاد مواطن الخلل التي تسبب الهلوسة. فكلما جرى سد هذه الثغرات بشكل أسرع ضمنّا نماذج أقل هلوسة.

أخيراً اعتماد مبدئَي التفسير والشفافية وذلك من خلال تمكين البشر من فهم كيفية اتخاذ أنظمة الذكاء الصناعي قراراتها، وهو أمر يمكن أن يساعد أيضاً في تحديد وتجنب الهلوسة، بل ويسهم بشكل عام في إعادة تعريف العلاقة بين الإنسان والذكاء الصناعي بطريقة أكثر فاعلية وأقل خوفاً.

جميع المقالات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن TRT عربي.

TRT عربي