ChatGPT | البيت الأبيض متخوف من عيوب الذكاء الإصطناعي

Chatbots
روبوتات الدردشة

ماذا يحدث عندما يجتمع الآلاف من القراصنة الإلكترونيين في مدينة واحدة بهدف وحيد، هو محاولة الخداع واكتشاف العيوب في نماذج الذكاء الاصطناعي؟ هذا ما يريد البيت الأبيض معرفته.

هذا الأسبوع في أكبر مؤتمر سنوي للقراصنة في العالم في لاس فيجاس، ديف كون 31، تفتح التكنولوجيا الكبيرة أنظمتها القوية ليتم اختبارها جنبا إلى جنب لأول مرة.

تحت دائرة الضوء، توجد نماذج لغات كبيرة، روبوتات الدردشة Chatbots المفيدة مثل “شات جي بي تي ChatGPT” الذي أصدرته شركة أوبن إي أي، و”بارد Bard” الذي أنتجته جوجل.

تعدّ الدكتورة رومان شودري، الرئيسة التنفيذية لشركة هيومن إنتلجنس وزميلة الذكاء الاصطناعي المسؤول في جامعة هارفارد، أحد منظمي هذا الحدث.

وقالت لبي بي سي نيوز إنهم صمموا مسابقة “لتحديد المشاكل في أنظمة الذكاء الاصطناعي” و”إنشاء تقييم مستقل”. وتقول إن الحدث سيكون مساحة آمنة للشركات “للحديث عن مشاكلهم وكيفية حلها”.

تم إقناع شركات ميتا، جوجل، أوبن إي أي، أنثروبيك، كوير، ميكروسوفت، إنفيديا وستابيليتي بفتح نماذجهم ليتم اختراقها لتحديد المشكلات.

تقول شودري إن الشركات تعرف أن العديد من الأشياء يمكن أن تسوء، لذا فإن المنافسة هي وسيلة لمعرفة ما يحدث عندما تتحدى مجموعة محددة من المخترقين نماذجهم في مواجهة الوقت.

كيفية عمل المؤتمر

يقدّر المنظمون أنه على مدار يومين ونصف اليوم، سيتم منح 3 آلاف شخص يعملون بمفردهم في واحد من 158 جهاز كمبيوتر محمولا 50 دقيقة، لمحاولة اكتشاف عيوب في 8 نماذج كبيرة للذكاء الاصطناعي.

لن يعرف المتسابقون نموذج الشركة الذي يعملون معه، على الرغم من أن المتسابقين ذوي الخبرة قد يكونون قادرين على التخمين. يؤدي إكمال التحدي الناجح إلى ربح نقاط ويفوز الشخص الذي حقق أعلى إجمالي.

يطلب أحد التحديات من القراصنة الحصول على نموذج للهلوسة (بالمعلومات) أو اختراع حقيقة حول شخص سياسي أو شخصية رئيسية.

تقول الدكتورة سيرافينا جولدفارب – تارانت، رئيسة سلامة الذكاء الاصطناعي في كوير، إنه بينما من المعروف أن النماذج يمكن أن تصنع الحقائق، فليس من الواضح مدى تكرار حدوثها.

وقالت “نعلم أن النماذج تهلوس بالمعلومات، لكن سيكون من المفيد زيادة الوعي بعدد المرات التي يحدث فيها ذلك. ما زلنا لا نعرف”, وسيتم أيضا اختبار اتساق النماذج، وتقول جولدفارب – تارانت إن هناك مخاوف بشأن كيفية عملها عبر اللغات المختلفة.

نماذج مختلفة

على سبيل المثال، إذا سألت العديد من نماذج اللغة الإنجليزية الكبيرة عن كيفية الانضمام إلى منظمة إرهابية، فلن يقدّموا لك إجابة، بسبب آلية الأمان. رغم ذلك، اسأل النموذج بلغة مختلفة ويعطيك قائمة بالخطوات التي يجب اتباعها.

كانت جولدفراب – تارانت تجهز نماذج كوير للحدث، وتقول إنه على الرغم من قوتها “لا يعني ذلك عدم وجود ثغرات أمنية في نماذجنا، لم نعثر عليها بعد”.

معوقات حالية

هذا الحدث يحظى بدعم البيت الأبيض. في مايو الماضي، أعلن عن الحدث، قائلا إنه “سيوفر معلومات مهمة للباحثين والجمهور حول تأثيرات هذه النماذج، وسيمكن شركات الذكاء الاصطناعي والمطورين من اتخاذ خطوات لإصلاح المشكلات الموجودة فيها”.

تقول الدكتور شودري إن هناك “سباق تسلح منظم يحدث الآن”، وهذا الحدث هو وسيلة لتسليط الضوء على مشاكل الذكاء الاصطناعي الحالية بدلا من التهديدات الوجودية.

وتقول إن الأمر لا يتعلق بالسؤال عما إذا كان بإمكان الذكاء الاصطناعي تفجير سلاح نووي، بل يتعلق أكثر بتحدي الأنظمة “لمعرفة ما إذا كانت تشتمل على أضرار وتحيزات”.

“على سبيل المثال، هل يكذبون علينا، ويختلقون عواصم وهمية، ويكذبون بشأن ما إذا كانوا أطباء مؤهلين، أو يشكلون معلومة سياسية مزيفة تماما”؟

تريد الدكتورة جولدفارب – تارانت أن يكون التركيز في التنظيم على معالجة المشكلات الحالية. إنها تريد من الحكومات “قضاء الوقت في تنظيم الذكاء الاصطناعي الآن لمنع المعلومات الخاطئة”.

ماذا سوف يحدث

تريد شودري أن تعرف “ماذا يحدث عندما، أو إذا وجدنا مشاكل مع هذه النماذج. ماذا ستكون استجابة شركات التكنولوجيا”؟

“إذا لم نتمكن من إنشاء نماذج تنبؤية بسيطة للتعلم الآلي للذكاء الاصطناعي خالية من التحيز والتمييز، فلن يكون لدينا نماذج ذكاء اصطناعي أكثر تعقيدا في المستقبل خالية من هذه المشكلات”.

مع مجرد الانتهاء من التحدي، ستتمكن الشركات من رؤية البيانات التي تم جمعها، والاستجابة لأي عيوب تم إبرازها, وسوف يتمكن الباحثون المستقلون من طلب الوصول إلى البيانات، مع نشر نتائج التجربة في فبراير المقبل.

المصدر: Egypt14

Post a Comment

1 Comments