بروباغندا الذكاء الاصطناعي.. هل بدأت حقبة التضليل المدعومة بعقول حاسوبية؟ / صورة: Canva (Canva)
تابعنا

أحدث الذكاء الاصطناعي (AI) ثورة على مستوى العالم أجمع بطرق كان يُعتقد في السابق أنها مستحيلة. لقد غير الصناعات وجعل حياتنا أكثر راحة وحل المشكلات التي بدت غير قابلة للحل. ومع ذلك، كما هو الحال مع أي تقنية ثورية، توجد مخاوف ومخاطر مرتبطة بالذكاء الاصطناعي. أحد هذه المخاطر الدعاية المضللة التي قد يغذيها وينشرها الذكاء الاصطناعي.

وفي بداية أحدث موجات الذكاء الاصطناعي، والتي تمثلت في ظهور وانتشار روبوت الدردشة ChatGPT، بدأ الخبراء يحذرون من المخاطر الاقتصادية التي يشكلها الذكاء الاصطناعي من خلال حوسبة 18% من الوظائف على مستوى العالم. فيما توقع خبراء اقتصاديون ببنك غولدمان ساكس الأمريكي أتمتة ما يصل إلى 300 مليون وظيفة بدوام كامل في جميع أنحاء العالم بطريقة ما.

ومع خفوت حدة الحديث عن المخاطر الاقتصادية، بدأ الخبراء يحذرون من مخاطر اجتماعية مرتبطة بالقدرة الخارقة لهذه التقنيات على خلق وتسريع نشر أفكار ومعلومات مضللة للتأثير على الرأي العام أو التلاعب به.

خطر ذو شقين

إلى جانب المخاوف المرتبطة بخطورة "التزييف العميق" السمعي والمرئي، الذي يستخدم الذكاء الاصطناعي لابتكار صور أو أحداث لم تحدث بالفعل، توجد قدرة أخرى للذكاء الاصطناعي تثير القلق بنفس القدر. حذر الباحثون لسنوات من أن أنظمة الذكاء الاصطناعي التوليدية المدربة على إنتاج لغة أصلية -روبوت الدردشة ChatGPT على سبيل المثال- يمكن أن يستخدمها لشن عمليات التأثير في الولايات المتحدة، وفق ما أورده تقرير مطول نشرته مجلة فورين بوليسي.

وبينما يستطيع هذا النوع من الروبوتات تمكين المستخدمين من إنشاء إمداد غير محدود تقريباً من النص الأصلية بجهد بشري محدود، يمكن أن يؤدي ذلك إلى تحسين قدرة الدعاية على إقناع الناخبين عن غير قصد وإغراق بيئات المعلومات عبر الإنترنت، وتخصيص رسائل البريد الإلكتروني المخادعة.

الخطر ذو شقين: لن تستطيع النماذج اللغوية فقط التأثير على المعتقدات؛ يمكن أن تؤدي أيضاً إلى تآكل ثقة الجمهور في المعلومات التي يعتمد عليها الأشخاص لتشكيل الأحكام واتخاذ القرارات.

دعاية مُفرطة مدعومة بعقول حاسوبية

تعد إمكانية استخدام الذكاء الاصطناعي لأغراض الدعاية مقلقة بسبب قدرته على معالجة كميات هائلة من البيانات وتحديد الأنماط التي قد يفوتها البشر. يمكن تدريب خوارزميات الذكاء الاصطناعي على التعرف على رسائل أو وجهات نظر محددة وتضخيمها، مما يجعلها أداة قوية لأولئك الذين يريدون التأثير على الرأي العام.

ونتيجة لذلك، فإن المخاطر التي بدت نظرية قبل بضع سنوات فقط تبدو واقعية بشكل متزايد. على سبيل المثال، أثبت روبوت ChatGPT الذي يعمل بالذكاء الاصطناعي والذي يشغل محرك بحث Bing من مايكروسوفت أنه قادر على محاولة التلاعب بالمستخدمين بل وحتى تهديدهم.

ولأن أدوات الذكاء الاصطناعي التوليدية تجتاح العالم، فمن الصعب تخيل أن المروجين لن يستخدموها للكذب والتضليل. للتحضير لهذا الاحتمال يجب على الحكومات والشركات ومنظمات المجتمع المدني تطوير معايير وسياسات لاستخدام النص الذي جرى إنشاؤه بواسطة الذكاء الاصطناعي، إضافة إلى تقنيات لمعرفة أصل جزء معين من النص وما إذا كان جرى إنشاؤه باستخدام منظمة العفو الدولية.

وحسب الفورين بوليسي يمكن أيضاً للجهود التي يبذلها الصحفيون والباحثون للكشف عن حسابات الوسائط الاجتماعية المزيفة والمواقع الإخبارية المزيفة أن تحد من وصول حملات الدعاية السرية بغض النظر عما إذا كان المحتوى بشرياً أو مكتوباً بواسطة الذكاء الاصطناعي.

مطالب لوقف تطوير روبوتات الذكاء الاصطناعي

في نهاية مارس/آذار الماضي، تعالت الأصوات التي تطالب بوقف مؤقت لتدريب وتطوير روبوتات الدردشة التي تعمل بالذكاء الاصطناعي ريثما تتمكن الحكومات من وضع المعايير والقوانين التي تحد من "مخاطرها العميقة على المجتمع".

وعبر رسالة مفتوحة أصدرها معهد Future of Life ووقع عليها المئات من رواد التكنولوجيا العالميين، بما فيهم أحد المستثمرين في الشركة المطورة لـChatGPT إيلون ماسك، طالبوا فيها بضرورة وقف ما سموه "السباق الخارج عن السيطرة" لتطوير ونشر عقول رقمية أقوى لا يمكن لأي شخص، ولا حتى منشئيها، فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.

وتساءلت الرسالة المفتوحة التي وقعها رواد التكنولوجيا عن طبيعة المنافسة بين البشر والذكاء الصناعي في المهام العامة، إذ قالت: "هل يجب أن ندع الآلات تغمر قنوات المعلومات لدينا بالدعاية والكذب؟ وهل يجب أن نطور عقولاً غير بشرية قد تفوقنا عدداً وذكاء في النهاية وتتفوق علينا وتحل محلنا، هل يجب أن نجازف بفقدان السيطرة على حضارتنا؟".

TRT عربي
الأكثر تداولاً