تقنية

كيف يمكن لـ ChatGPT و Bots Like It نشر البرامج الضارة


مشهد الذكاء الاصطناعي بدأت تتحرك بسرعة كبيرة جدًا: أصبحت الأدوات التي تواجه المستهلك مثل Midjourney و ChatGPT قادرة الآن على إنتاج صور مذهلة ونتائج نصية في ثوانٍ استنادًا إلى مطالبات اللغة الطبيعية ، ونحن نراها تنتشر في كل مكان من بحث الويب إلى الأطفال الكتب.

ومع ذلك ، يتم تحويل تطبيقات الذكاء الاصطناعي هذه إلى استخدامات أكثر شناعة ، بما في ذلك نشر البرامج الضارة. خذ رسالة البريد الإلكتروني المخادعة التقليدية ، على سبيل المثال: عادةً ما تكون مليئة بالأخطاء الواضحة في القواعد اللغوية والإملائية – وهي أخطاء لا ترتكبها أحدث مجموعة من نماذج الذكاء الاصطناعي ، كما هو مذكور في تقرير استشاري حديث من يوروبول.

فكر في الأمر: تعتمد الكثير من هجمات التصيد الاحتيالي والتهديدات الأمنية الأخرى على الهندسة الاجتماعية ، أو خداع المستخدمين للكشف عن كلمات المرور أو المعلومات المالية أو غيرها من البيانات الحساسة. يمكن الآن ضخ النص المقنع الذي يبدو أصيلًا والمطلوب لعمليات الاحتيال هذه بسهولة تامة ، دون الحاجة إلى أي جهد بشري ، ويتم تعديله وصقله إلى ما لا نهاية لجماهير محددة.

في حالة ChatGPT ، من المهم أن نلاحظ أولاً أن المطور OpenAI قام ببنائه وحمايته. اطلب منه “كتابة برامج ضارة” أو “بريد إلكتروني للتصيد الاحتيالي” وسيخبرك أنه “تمت برمجته لاتباع إرشادات أخلاقية صارمة تمنعني من الانخراط في أي أنشطة ضارة ، بما في ذلك الكتابة أو المساعدة في إنشاء برامج ضارة.”

لن يقوم ChatGPT بتشفير البرامج الضارة نيابة عنك ، ولكنه أمر مهذب حيال ذلك.

أوبن إيه آي عبر ديفيد نيلد

ومع ذلك ، ليس من الصعب للغاية الالتفاف على وسائل الحماية هذه: يمكن لـ ChatGPT بالتأكيد كتابة التعليمات البرمجية ، ويمكنه بالتأكيد إنشاء رسائل بريد إلكتروني. حتى لو لم تكن تعلم أنها تكتب برامج ضارة ، يمكن أن تتم مطالبتها بإنتاج شيء من هذا القبيل. هناك بالفعل دلائل على أن مجرمي الإنترنت يعملون للالتفاف على تدابير السلامة التي تم وضعها.

نحن لا نختار ChatGPT هنا بشكل خاص ، لكننا نشير إلى ما هو ممكن بمجرد استخدام نماذج اللغات الكبيرة (LLMs) مثلها لأغراض أكثر شريرة. في الواقع ، ليس من الصعب جدًا تخيل المنظمات الإجرامية التي تقوم بتطوير LLM الخاصة بها وأدوات مماثلة من أجل جعل عمليات الاحتيال التي تقوم بها تبدو أكثر إقناعًا. وهو ليس مجرد نص أيضًا: الصوت والفيديو أكثر صعوبة في التزييف ، ولكنه يحدث أيضًا.

عندما يتعلق الأمر برئيسك في العمل يطلب تقريرًا على وجه السرعة ، أو يخبرك الدعم الفني للشركة بتثبيت تصحيح أمان ، أو يخبرك البنك الذي تتعامل معه بوجود مشكلة تحتاج إلى الرد عليها – تعتمد جميع عمليات الاحتيال المحتملة هذه على بناء الثقة والتعبير عن الصدق . ، وهذا شيء تقوم به روبوتات الذكاء الاصطناعي جيدًا. يمكنهم إنتاج نصوص وصوت وفيديو تبدو طبيعية ومصممة خصيصًا لجمهور معين ، ويمكنهم فعل ذلك بسرعة وباستمرار عند الطلب.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى