تابعنا
إذا كانت الشركات الأكثر وعياً بالأمن تضييق الخناق على استخدامها للذكاء الاصطناعي، فقد يكون ذلك إشارة مقنعة إلى بقيتنا لتبنِّي نهج مماثل.

أقدمت شركات التكنولوجيا العملاقة مثل Apple وSamsung وVerizon، جنباً إلى جنب مع المؤسسات المصرفية البارزة مثل Bank of America وCiti وDeutsche Bank وGoldman وWells Fargo وJPMorgan، على فرض قيود على استخدام الذكاء الصناعي التوليدي ChatGPT الذي طورته شركة OpenAI وMicrosoft Copilot، وذلك وفق ما أوردته صحيفة وول ستريت جورنال وبلومبرج.

فُرضت هذه القيود بدافع القلق من تسرُّب البيانات والانتهاكات المحتملة للمعلومات السرية والشخصية للمستخدمين، وهو خطر أكده في السابق خطأ وقع في ChatGPT وتحديداً بمارس/آذار الماضي نجم عنه تسريب لبيانات المستخدمين. تزايدت المخاوف من هذه التسريبات في ظل سياسة الخصوصية التي يتبعها نموذج ChatGPT التي تنص على أن النموذج بإمكانه استخدام البيانات الشخصية للمستخدمين بعملية تدريب خوارزمياته ما لم يستعمل المستخدم خاصية "الخروج". من هنا تبقى المخاوف من إساءة التعامل مع البيانات مصدر قلق كبير لدى كثيرين.

بالنسبة إليَّ يمكن اعتبار هذا الحظر تنبيهاً صارماً لنا خصوصاً في ظل بيئة تكنولوجية متغيرة بسرعة وغير مفهومة على نطاق واسع. على سبيل المثال، واحدة من المجالات الرئيسية التي نجد فيها هذه التكنولوجيا مستخدمةُ هي خدمة العملاء، حيث تسعى الشركات باستمرار لخفض التكاليف عبر استخدام الرد الآلي. تتطلب خدمة العملاء الفعالة التي تلامس رضى المستخدمين الكشف عن معلومات العملاء الشخصية، والحساسة في بعض الأحيان. هذا الأمر يطرح سؤالاً جوهرياً: كيف تخطط هذه الشركات لتعزيز أمان روبوتات خدمة العملاء الخاصة بهم؟ ماذا لو تسربت معلومات أكثر حساسية تتعلق بالأمن القومي مثلاً في ظل الاعتماد المتزايد على هذه النماذج الذكية في عمليات التصميم الحساسة كالطائرات المقاتلة وغيرها.

في عالم التكنولوجيا من الشائع للمؤسسات الناشئة، مثل الإصدار الأول من Facebook، التغاضي عن أهمية أمن وسلامة البيانات في مقال الاهتمام بالتوسع وربما بالعوائد المالية. ونتيجة ذلك يبدو أن من الحكمة تقليل مشاركة المحتوى الحساس في أثناء استخدام نماذج الذكاء الصناعي، إذ إن التكنولوجيا لا تزال في بداياتها ولا يزال كثير من الغموض ينتاب طريقة عملها.

وبالمناسبة أشارت شركة OpenAI بنصائحها للمستخدمين إلى تجنُّب إفشاء المعلومات الحساسة في محادثاتهم وهو أمر يدل على أن الشركة لم تزل غير واثقة من إعدادات الأمان والخصوصية لديها. أخيراً هذه ليست مشكلة تقتصر على الذكاء الاصطناعي وحده ولكنها تمثل تحدياً على مستوى صناعة التكنولوجيا عموماً. فمع كل منتج تكنولوجي جديد نرى أن هوامش الخصوصية وأمن المعلومات تتقلص.

يدفعني هذا بطبيعة الحال إلى التساؤل أيضاً إذا ما كان يوجد إشكال متأصل وجوهري بروبوتات دردشة الذكاء الاصطناعي خصوصاً فيما يتعلق بالقوة والقدرات الحاسوبية. وهو جانب آخر للتعدي على البيانات الشخصية وأمن المعلومات. مثلاً يعد إنشاء مركز البيانات الخاص بك مكلفاً للغاية ما يدفعنا إلى الحوسبة السحابية. ورغم أن هذا حل رخيص نسبياً فإنه لا يخلو من أثمان تدفع بالمقابل. إن اللجوء إلى الحوسبة السحابية يعني معالجة البيانات على خادم بعيد، ما يكلف طرفاً ثالثاً مهمة ضمان بياناتك الشخصية. وهذا بالتأكيد يشكل مصدر قلق كبير للمؤسسات المالية بسبب الطبيعة الحساسة للغاية للبيانات المالية.

بعيداً عن خطر التسرب غير المقصود للبيانات يلوح بالأفق شبح التجسس المتعمد على الشركات والأفراد. للوهلة الأولى تبدو مشكلة يواجهها قطاع التكنولوجيا في المقام الأول بالنظر إلى أن سرقة الأسرار التجارية مخاطرة كبيرة. ومع ذلك، مع دخول شركات التكنولوجيا الكبرى معززة بالذكاء الصناعي صناعة البث المباشر كنتفليكس وأمازون برايم وديزني بلاس، لا يسع المرء إلا أن يتساءل عما إذا كانت هذه المشكلة يمكن أن تمتد إلى القطاعات الإبداعية في صناعات المحتوى أيضاً.

في القطاع التكنولوجي يوجد شد وجذب دائم بين الخصوصية والأداء الوظيفي. بكثير من الأحيان كما لوحظ مع الشركات العملاقة مثل Google وFacebook يضع المستخدمون خصوصيتهم تحت الخطر للاستفادة من الخدمات المجانية. وهذا مفهوم بطبيعة الحال، فشهوة الاستخدام المجاني لتطبيقات التكنولوجيا يفوق خوف خسارة الخصوصية. ينص Bard من Google بدون لبس على أنه سيجري استخدام البيانات لتحسين منتجات Google وخدماتها وتقنيات التعلم الآلي وتطويرها.

ربما تكون هذه الشركات الكبيرة المهتمة بالخصوصية شديدة الحذر وليس لديها سبب جوهري للقلق. لكن بافتراض صحة مخاوفهم، تتبادر إلى الذهن مسارات محتملة لمستقبل روبوتات الدردشة الذكية. أحد الاحتمالات هو أن اتجاه الذكاء الصناعي يمكن أن يحاكي metaverse ويفشل باكتساب قوة الدفع المطلوبة.

على صعيد آخر قد تواجه شركات الذكاء الاصطناعي ضغوطاً متزايدة لتجديد بروتوكولاتها الأمنية وتفاصيلها بشكل أشمل وأدق. قد يلزم بسيناريو آخر لكل شركة حريصة على استخدام الذكاء الاصطناعي إنشاء نموذج خاص بها، أو على الأقل إدارة عمليات المعالجة الخاصة بها -وهو خيار يبدو مكلفاً بشكل ملحوظ ويصعب تنفيذه. أخيراً قد نواجه كابوساً يتعلق بالخصوصية بالعالم الرقمي، مع تسريبات منتظمة للبيانات من الشركات التي ستعتمد اعتماداً كبيراً على الذكاء الصناعي كشركات الطيران ومحصلي الضرائب والصيدليات وهلم جراً.

النتيجة النهائية لا تزال غير مؤكدة. مع ذلك إذا كانت الشركات الأكثر وعياً بالأمن تضييق الخناق على استخدامها للذكاء الاصطناعي، فقد يكون ذلك إشارة مقنعة إلى بقيتنا لتبنِّي نهج مماثل.

جميع المقالات المنشورة تعبر عن رأي كتّابها ولا تعبر بالضرورة عن TRT عربي.

TRT عربي