الذكاء الصناعي يُخيف مطوّريه.. ماذا يقول عرّابو التكنولوجيا عن فقد السيطرة؟ / الصورة: Reuters  (Mark Blinch/Reuters)
تابعنا

في حدث جديد هز عالم التقنية وزاد من المخاوف المرتبطة بالتطور السريع والمهول لتكنولوجيا الذكاء الصناعي، استقال جيفري هينتون الملقب بـ"الأب الروحي للذكاء الصناعي"، من شركة غوغل بسبب مخاوف من عدم إمكانية التحكم في التكنولوجيا. معرباً عن أسفه على أجزاء من عمله في حياته لأنه يخشى أن يؤدي نمو الذكاء الصناعي إلى روبوتات قاتلة تكون أكثر ذكاءً من البشر.

وأعلن هينتون، الذي كان يعمل رئيساً لقسم أبحاث الدماغ في غوغل، أنه ترك دوره في غوغل الأسبوع الماضي للتحدث علناً عن "مخاطر" التكنولوجيا التي ساعد في تطويرها. إذ حذر من أن التقدم "المخيف" للذكاء الصناعي قد يعني أن مستخدمي الإنترنت لن "يعرفوا ما هو حقيقي".

وفي تغريدة عبر حسابه على موقع تويتر، كتب هينتون الاثنين: "غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على غوغل". وأضاف: "لقد تصرفت غوغل بمسؤولية كبيرة".

"عراب الذكاء الصناعي"

درس جيفري هينتون (75 عاماً) علم النفس التجريبي في كينجز كوليدج، كامبريدج، وحصل لاحقاً على درجة الدكتوراه في الذكاء الصناعي من جامعة إدنبرة في عام 1978 وانضم إلى غوغل في مارس/آذار 2013. وعام 2018، حصل هو واثنان من زملائه على جائزة تورينج، المعروفة باسم "جائزة نوبل للحوسبة"، لأبحاثهم حول الشبكات العصبية، وفقاً لما نقلته صحيفة التلغراف البريطانية.

وحسب نيويورك تايمز التي كانت أول من نشر خبر استقالته، كان جيفري هينتون رائداً في مجال الذكاء الصناعي لنصف قرن. عام 2012، ابتكر هينتون واثنان من طلابه بجامعة تورنتو تقنية صارت الأساس الفكري لمنظمة الذكاء الصناعي. الأنظمة التي تراها أكبر شركات التكنولوجيا مفتاح مستقبلهم.

هينتون الذي ساعد في إرساء أسس الذكاء الصناعي التوليدي اليوم كان زميلاً هندسياً بغوغل لأكثر من عقد، لكنه بالوقت الحالي يأسف جزء منه على عمل حياته بعد رؤية خطر الذكاء الصناعي. هو قلق من المعلومات الخاطئة، فلن يكون الشخص العادي "قادراً على معرفة ما هو صحيح بعد الآن".

من جانبه، قال جيف دين، كبير العلماء في غوغل، في أثناء حديثه مع شبكة CNN إن هينتون "حقق اختراقات تأسيسية بمجال الذكاء الصناعي"، وأعرب عن تقديره لـ"عقد من المساهمات في غوغل".

انتقادات من داخل مطبخ التكنولوجيا

رغم الخدمات الكبيرة والرائدة بمجال الذكاء الصناعي التي قدمها طوال العقود الخمس الماضية، انضم جيفري هينتون باستقالته رسمياً إلى مجموعة متزايدة من النقاد الذين يقولون إن هذه الشركات تتسابق نحو الخطر بحملتها العدوانية لإنشاء منتجات تعتمد على الذكاء الصناعي التوليدي، وهي التكنولوجيا التي تدعم برامج الدردشة الشهيرة مثل ChatGPT.

في الواقع يتمثل أحد مخاوف هينتون بأن الإنترنت الذي تُستخدم بياناته لتدريب أدوات الذكاء الصناعي التوليدية، سيجري إغراقه بمعلومات خاطئة قد تجعل روبوتات الدردشة مثل ChatGPT وBard تنشر الأكاذيب التي لا نهاية لها بطريقة تبدو معقولة.

ولأن الشركات التي تقف وراء التكنولوجيا تطلق أدواتها التي تعمل بالذكاء الصناعي للاستخدام العام دون معرفة كاملة بإمكانياتها، فإن هينتون يخشى أن "من الصعب معرفة كيف يمكنك منع الجهات الفاعلة السيئة من استخدامها لأشياء سيئة". كما يرى أن قدرة الذكاء الصناعي على أتمتة المهام لن تحل محل العمل الشاق فحسب، بل ستقلب سوق العمل بأكمله رأساً على عقب.

في السابق اعتقد هينتون على أن ثورة الذكاء الاصطناعي كانت على بعد عقود. لكن منذ أن أطلقت OpenAI ChatGPT في نوفمبر/تشرين الثاني 2022 غيَّر ذكاء نموذج اللغة الكبير (LLM) رأيه. قال: "انظروا كيف كان الأمر قبل خمس سنوات وكيف هو الآن. خذ الفرق وانشره إلى الأمام. هذا مخيف". وأضاف: "من الصعب أن ترى كيف يمكنك منع الأشرار استخدامه أشياء سيئة".

مخاوف جادة

بعد أن أصدرت شركة OpenAI الناشئة في سان فرانسيسكو إصداراً جديداً من ChatGPT في مارس/آذار الماضي وقع أكثر من 1000 من قادة التكنولوجيا والباحثين خطاباً مفتوحاً طالبوا فيه بضرورة وقف مؤقت (6 أشهر) ما سموه "السباق الخارج عن السيطرة" لتطوير ونشر عقول رقمية أقوى لا يمكن لأي شخص، ولا حتى منشئيها، فهمها أو التنبؤ بها أو التحكم فيها بشكل موثوق.

وبعدها بعدة أيام، أصدر 19 من القادة الحاليين والسابقين لجمعية النهوض بالذكاء الصناعي، وهي جمعية أكاديمية عمرها 40 عاماً، خطاباً خاصاً بهم يحذرون فيه من مخاطر الذكاء الاصطناعي. ضمت تلك المجموعة إريك هورفيتز، كبير المسؤولين العلميين في مايكروسوفت، التي نشرت تقنية OpenAI عبر مجموعة واسعة من المنتجات، بما في ذلك محرك بحث Bing، وفقاً لنيويورك تايمز.

وإلى جانب تأثيره السلبي على سوق الوظائف على مستوى العالم يحذر الخبراء من مخاطر اجتماعية مرتبطة بالقدرة الخارقة لهذه التقنيات على خلق وتسريع نشر أفكار ومعلومات مضللة للتأثير على الرأي العام أو التلاعب به من خلال مواد "التزييف العميق"، السمعي والمرئي.


TRT عربي