ها هي تجربة يتم إدارتها بواسطة طلاب جامعيين في علوم الكمبيوتر في كل مكان: اطلب من ChatGPT إنشاء رسائل بريد إلكتروني احتيالية ، واختبر ما إذا كانت هذه الرسائل أفضل في إقناع الضحايا بالرد أو النقر فوق الارتباط من البريد العشوائي المعتاد. إنها تجربة مثيرة للاهتمام ، ومن المرجح أن تختلف النتائج بشكل كبير بناءً على تفاصيل التجربة.
ولكن في حين أنها تجربة سهلة التشغيل ، إلا أنها تفتقد الخطر الحقيقي المتمثل في كتابة نماذج اللغات الكبيرة (LLMs) لرسائل البريد الإلكتروني الاحتيالية. لا تقتصر عمليات الاحتيال التي يديرها الإنسان اليوم على عدد الأشخاص الذين يستجيبون لجهة اتصال البريد الإلكتروني الأولية. إنهم مقيدون بالعملية كثيفة العمالة لإقناع هؤلاء الأشخاص بإرسال أموال المحتال. LLMs على وشك تغيير ذلك.
قبل عقد من الزمان ، أصبح نوع واحد من الرسائل الإلكترونية غير المرغوب فيها بمثابة كلمة رئيسية في كل عرض يتم عرضه في وقت متأخر من الليل: “أنا ابن ملك نيجيريا الراحل وأحتاج إلى مساعدتك …” لقد تلقى كل شخص تقريبًا واحدًا أو ألفًا من هذه الرسائل الإلكترونية ، لدرجة أنه يبدو أن الجميع يعرفون أنهم خدع.
فلماذا كان المحتالون لا يزالون يرسلون مثل هذه الرسائل الإلكترونية المشكوك فيها بوضوح؟ في عام 2012 ، قدم الباحث كورماك هيرلي إجابة: لقد تخلصت من كل شيء ما عدا الأكثر سذاجة. لا يريد المحتال الذكي إضاعة وقته مع الأشخاص الذين يردون ثم يدركون أنها عملية احتيال عندما يُطلب منهم تحويل الأموال. باستخدام بريد إلكتروني احتيالي واضح ، يمكن للمخادع التركيز على الأشخاص الأكثر ربحية. يستغرق الأمر وقتًا وجهدًا للانخراط في الاتصالات ذهابًا وإيابًا التي تدفع العلامات ، خطوة بخطوة ، من المحاور إلى التعارف الموثوق به إلى الفقير.
تُعرف عمليات الاحتيال المالية طويلة الأمد الآن باسم ذبح الخنازير ، مما يؤدي إلى زيادة الربح المحتمل حتى زوالها النهائي والمفاجئ. تستغرق عمليات الاحتيال هذه ، التي تتطلب اكتساب الثقة واختراق الموارد المالية الشخصية للهدف ، أسابيع أو حتى شهورًا من الوقت الشخصي والتفاعلات المتكررة. إنها لعبة عالية المخاطر وذات احتمالية منخفضة يلعبها المحتال.
هنا حيث LLMs ستحدث فرقًا. لقد كُتب الكثير عن عدم موثوقية نماذج GPT الخاصة بشركة OpenAI وتلك المشابهة لها: فهي “تهلوس” كثيرًا ، وتختلق أشياء عن العالم وتطلق بثقة الهراء. للترفيه ، هذا جيد ، لكن بالنسبة لمعظم الاستخدامات العملية ، فهذه مشكلة. ومع ذلك ، فهي ليست خطأ ولكنها ميزة عندما يتعلق الأمر بالخداع: إن قدرة LLMs على التدحرج بثقة مع اللكمات ، بغض النظر عما يلقيها المستخدم عليها ، ستثبت أنها مفيدة للمحتالين أثناء تنقلهم معادية ومربكة وساذجة أهداف احتيال بالمليارات. يمكن لخدع روبوتات الدردشة بالذكاء الاصطناعي أن يوقع المزيد من الناس ، لأن مجموعة الضحايا الذين يقعون في قبضة محتال أكثر دقة ومرونة – شخص تم تدريبه على كل شيء مكتوب على الإنترنت – أكبر بكثير من مجموعة أولئك الذين يعتقدون أن ملك نيجيريا يريد لمنحهم مليار دولار.
أجهزة الكمبيوتر الشخصية قوية بما يكفي اليوم بحيث يمكنها تشغيل LLMs مضغوطة. بعد تسريب نموذج Facebook الجديد ، LLaMA ، عبر الإنترنت ، قام المطورون بضبطه ليعمل بسرعة وبتكلفة زهيدة على أجهزة الكمبيوتر المحمولة القوية. العديد من LLMs الأخرى مفتوحة المصدر قيد التطوير ، مع مجتمع من آلاف المهندسين والعلماء.
يمكن لمخادع واحد ، من جهاز الكمبيوتر المحمول الخاص به في أي مكان في العالم ، تشغيل مئات أو آلاف عمليات الاحتيال بالتوازي ، ليلاً ونهارًا ، مع وجود علامات في جميع أنحاء العالم ، وبكل لغة تحت الشمس. لن تنام روبوتات الدردشة التي تعمل بالذكاء الاصطناعي أبدًا وستتكيف دائمًا على طول طريقها مع أهدافها. وستعمل الآليات الجديدة ، من مكونات ChatGPT الإضافية إلى LangChain ، على تمكين تكوين الذكاء الاصطناعي مع الآلاف من الخدمات السحابية المستندة إلى API وأدوات مفتوحة المصدر ، مما يسمح لـ LLM بالتفاعل مع الإنترنت كما يفعل البشر. لم يعد انتحال الشخصيات في مثل هذه الحيل مجرد أمراء يقدمون ثروات بلادهم. إنهم غرباء بائسون يبحثون عن الرومانسية ، والعملات المشفرة الجديدة الساخنة التي سترتفع قيمتها قريبًا ، ومواقع الويب المالية الجديدة التي تبدو وكأنها تقدم عوائد مذهلة على الودائع. والناس يقعون بالفعل في حب LLM.
هذا تغيير في كل من النطاق والحجم. سوف LLMs تغيير خط أنابيب الاحتيال ، مما يجعلها أكثر ربحية من أي وقت مضى. لا نعرف كيف نعيش في عالم به مليار أو 10 مليارات محتال لا ينامون أبدًا.
سيكون هناك أيضًا تغيير في مدى تعقيد هذه الهجمات. لا يُعزى هذا إلى تطورات الذكاء الاصطناعي فحسب ، بل يرجع إلى نموذج الأعمال التجارية للإنترنت – رأسمالية المراقبة – الذي ينتج مجموعة من البيانات عنا جميعًا ، والمتاحة للشراء من وسطاء البيانات. كانت الهجمات الموجهة ضد الأفراد ، سواء بغرض التصيد الاحتيالي أو جمع البيانات أو عمليات الاحتيال ، في يوم من الأيام فقط في متناول الدول القومية. اجمع بين الملفات الرقمية التي يمتلكها وسطاء البيانات لدينا جميعًا مع LLMs ، ولديك أداة مخصصة لعمليات الاحتيال الشخصية.
تحاول شركات مثل OpenAI منع نماذجها من القيام بأشياء سيئة. ولكن مع إصدار كل LLM جديد ، تشتهر مواقع التواصل الاجتماعي بحالات كسر جديدة للذكاء الاصطناعي تتجنب القيود الجديدة التي وضعها مصممو الذكاء الاصطناعي. تم كسر حماية ChatGPT ، ثم Bing Chat ، ثم GPT-4 في غضون دقائق من إصدارها ، وبعشرات الطرق المختلفة. معظم وسائل الحماية ضد الاستخدامات السيئة والمخرجات الضارة تكون عميقة فقط ، ويمكن تهربها بسهولة من قبل مستخدمين محددين. بمجرد اكتشاف كسر الحماية ، يمكن عادةً تعميمه ، ويقوم مجتمع المستخدمين بسحب LLM من خلال الثغرات الموجودة في درعه. وتتقدم التكنولوجيا بسرعة كبيرة بحيث لا يمكن لأي شخص أن يفهم تمامًا كيفية عملها ، حتى المصممين.
هذه كلها قصة قديمة: إنها تذكرنا بأن العديد من الاستخدامات السيئة للذكاء الاصطناعي هي انعكاس للإنسانية أكثر من كونها انعكاسًا لتقنية الذكاء الاصطناعي نفسها. لا تعتبر عمليات الاحتيال شيئًا جديدًا – ببساطة نية ثم فعل شخص يخدع شخصًا آخر لتحقيق مكاسب شخصية. واستخدام الآخرين كأتباع لإنجاز عمليات الاحتيال ليس بالأمر الجديد أو غير المألوف للأسف: على سبيل المثال ، تقوم الجريمة المنظمة في آسيا حاليًا باختطاف أو دفع الآلاف في ورش العمل الخادعة. هل من الأفضل ألا ترى الجريمة المنظمة بعد الآن الحاجة إلى استغلال الأشخاص وإساءة معاملتهم جسديًا لإدارة عمليات الاحتيال الخاصة بهم ، أو الأسوأ من ذلك أنهم وكثيرون غيرهم سيكونون قادرين على توسيع نطاق عمليات الاحتيال إلى مستوى غير مسبوق؟
يمكن للدفاع أن يلحق بالركب ، ولكن قبل أن يحدث ذلك ، ستنخفض نسبة الإشارة إلى الضوضاء بشكل كبير.