تقنية

الآن بعد أن تم توصيل ChatGPT ، يمكن أن تصبح الأمور غريبة


يستكشف عدد من المشاريع مفتوحة المصدر مثل LangChain و LLamaIndex أيضًا طرقًا لبناء التطبيقات باستخدام القدرات التي توفرها نماذج اللغات الكبيرة. يقول Guo إن إطلاق المكونات الإضافية لـ OpenAI يهدد بإفساد هذه الجهود.

قد تقدم المكونات الإضافية أيضًا مخاطر تصيب نماذج الذكاء الاصطناعي المعقدة. وجد أعضاء فريق المكون الإضافي الأحمر الخاص بـ ChatGPT أنهم يستطيعون “إرسال رسائل بريد إلكتروني احتيالية أو بريد عشوائي ، أو تجاوز قيود الأمان ، أو إساءة استخدام المعلومات المرسلة إلى المكون الإضافي” ، وفقًا لإيميلي بندر ، أستاذة اللسانيات في جامعة واشنطن. ويضيف بندر: “إن السماح للأنظمة المؤتمتة باتخاذ إجراءات في العالم هو خيار نتخذه”.

يعتقد دان هيندريكس ، مدير مركز أمان الذكاء الاصطناعي ، وهو منظمة غير ربحية ، أن المكونات الإضافية تجعل النماذج اللغوية أكثر خطورة في وقت تمارس فيه شركات مثل Google و Microsoft و OpenAI ضغوطًا قوية للحد من المسؤولية عبر قانون AI. وهو يصف إصدار مكونات ChatGPT الإضافية بأنه سابقة سيئة ويشتبه في أنه قد يقود صانعي نماذج اللغات الكبيرة الآخرين إلى اتخاذ مسار مماثل.

وعلى الرغم من أنه قد يكون هناك مجموعة محدودة من المكونات الإضافية اليوم ، إلا أن المنافسة قد تدفع شركة OpenAI لتوسيع اختيارها. يرى Hendrycks فرقًا بين مكونات ChatGPT الإضافية والجهود السابقة التي تبذلها شركات التكنولوجيا لتنمية النظم البيئية للمطورين حول الذكاء الاصطناعي للمحادثات – مثل المساعد الصوتي Alexa من أمازون.

يمكن لـ GPT-4 ، على سبيل المثال ، تنفيذ أوامر Linux ، ووجدت عملية GPT-4 red-teaming أن النموذج يمكن أن يشرح كيفية صنع الأسلحة البيولوجية أو تصنيع القنابل أو شراء برامج الفدية على الويب المظلم. يعتقد Hendrycks أن الإضافات المستوحاة من مكونات ChatGPT الإضافية يمكن أن تجعل المهام مثل التصيد الاحتيالي أو رسائل البريد الإلكتروني المخادعة أسهل كثيرًا.

يؤدي الانتقال من إنشاء النصوص إلى اتخاذ الإجراءات نيابة عن الشخص إلى تآكل فجوة الهواء التي منعت حتى الآن النماذج اللغوية من اتخاذ الإجراءات. يقول Hendrycks: “نحن نعلم أن النماذج يمكن كسرها ، ونحن الآن نربطها بالإنترنت حتى يمكن أن تتخذ إجراءات”. “هذا لا يعني أن ChatGPT ، بمحض إرادتها ، ستصنع قنابل أو شيء من هذا القبيل ، لكنها تجعل القيام بمثل هذه الأشياء أسهل كثيرًا.”

يقول علي الخطيب ، القائم بأعمال مدير مركز أخلاقيات البيانات التطبيقية بجامعة سان فرانسيسكو ، إن جزءًا من مشكلة المكونات الإضافية لنماذج اللغة هو أنها يمكن أن تجعل من السهل كسر حماية مثل هذه الأنظمة. نظرًا لأنك تتفاعل مع الذكاء الاصطناعي باستخدام لغة طبيعية ، فمن المحتمل أن يكون هناك الملايين من نقاط الضعف غير المكتشفة. يعتقد الخطيب أن المكونات الإضافية لها آثار بعيدة المدى في الوقت الذي تعمل فيه شركات مثل Microsoft و OpenAI على تشويش التصور العام مع الادعاءات الأخيرة بالتقدم نحو الذكاء العام الاصطناعي.

يقول: “الأمور تتحرك بسرعة كافية بحيث لا تكون خطيرة فحسب ، ولكنها في الواقع ضارة لكثير من الناس” ، بينما أعرب عن قلقه من أن الشركات المتحمسة لاستخدام أنظمة الذكاء الاصطناعي الجديدة قد تسرع في إدخال المكونات الإضافية في سياقات حساسة مثل خدمات الاستشارة.

قد يكون لإضافة قدرات جديدة إلى برامج الذكاء الاصطناعي مثل ChatGPT عواقب غير مقصودة أيضًا ، كما يقول Kanjun Qiu ، الرئيس التنفيذي لشركة Generally Intelligent ، وهي شركة AI تعمل على وكلاء مدعومين بالذكاء الاصطناعي. قد يقوم برنامج الدردشة الآلي ، على سبيل المثال ، بحجز رحلة طيران باهظة الثمن أو يتم استخدامه لتوزيع البريد العشوائي ، ويقول Qiu إنه سيتعين علينا تحديد المسؤول عن مثل هذا السلوك السيئ.

لكن Qiu يضيف أيضًا أن فائدة برامج الذكاء الاصطناعي المتصلة بالإنترنت تعني أن التكنولوجيا لا يمكن إيقافها. يقول Qiu: “خلال الأشهر والسنوات القليلة القادمة ، يمكننا أن نتوقع أن يتم توصيل الكثير من الإنترنت بنماذج اللغات الكبيرة”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى