الدردشة قد تكون الخوارزمية الأكثر شهرة وربما قيمة في الوقت الحالي ، لكن تقنيات الذكاء الاصطناعي التي تستخدمها شركة أوبن إيه آي لتقديم ذكاءها ليست فريدة ولا سرية. قد تتيح المشروعات المتنافسة والمستنسخات مفتوحة المصدر قريبًا روبوتات على غرار ChatGPT متاحة لأي شخص لنسخها وإعادة استخدامها.
تعمل شركة Stability AI ، وهي شركة ناشئة قامت بالفعل بتطوير تقنية إنشاء صور متقدمة ومفتوحة المصدر ، على منافس مفتوح لـ ChatGPT. يقول عماد مستقي ، الرئيس التنفيذي لشركة Stability: “ما زلنا بضعة أشهر على الإصدار”. يعمل عدد من الشركات الناشئة المنافسة ، بما في ذلك Anthropic و Cohere و AI21 ، على روبوتات محادثة خاصة تشبه روبوت OpenAI.
سيؤدي التدفق الوشيك من روبوتات المحادثة المتطورة إلى جعل التكنولوجيا أكثر وفرة ومرئية للمستهلكين ، بالإضافة إلى سهولة الوصول إليها من قبل شركات الذكاء الاصطناعي والمطورين والباحثين. يمكن أن يؤدي ذلك إلى تسريع الاندفاع لكسب المال باستخدام أدوات الذكاء الاصطناعي التي تنشئ الصور والتعليمات البرمجية والنصوص.
تقوم الشركات القائمة مثل Microsoft و Slack بدمج ChatGPT في منتجاتها ، وتسعى العديد من الشركات الناشئة إلى البناء على واجهة برمجة تطبيقات ChatGPT جديدة للمطورين. لكن التوافر الواسع للتكنولوجيا قد يعقد أيضًا الجهود المبذولة للتنبؤ بالمخاطر التي تأتي معها والتخفيف من حدتها.
إن قدرة ChatGPT الخادعة على تقديم إجابات مقنعة لمجموعة واسعة من الاستفسارات تجعلها أحيانًا تختلق الحقائق أو تتبنى شخصيات إشكالية. يمكن أن يساعد في المهام الخبيثة مثل إنتاج رمز البرامج الضارة ، أو البريد العشوائي وحملات التضليل.
نتيجة لذلك ، دعا بعض الباحثين إلى إبطاء نشر أنظمة شبيهة بـ ChatGPT أثناء تقييم المخاطر. يقول جاري ماركوس ، خبير الذكاء الاصطناعي الذي سعى إلى لفت الانتباه إلى مخاطر مثل المعلومات المضللة الناتجة عن الذكاء الاصطناعي: “ليست هناك حاجة لوقف البحث ، لكن يمكننا بالتأكيد تنظيم الانتشار على نطاق واسع”. “قد نطلب ، على سبيل المثال ، إجراء دراسات على 100000 شخص قبل إطلاق هذه التقنيات إلى 100 مليون شخص”.
إن التوافر الواسع للأنظمة ذات النمط ChatGPT ، وإصدار إصدارات مفتوحة المصدر ، سيجعل من الصعب تقييد البحث أو النشر على نطاق أوسع. وتوحي المنافسة بين الشركات الكبيرة والصغيرة لتبني أو مطابقة ChatGPT بقليل من الرغبة في التباطؤ ، ولكن يبدو بدلاً من ذلك أنها تحفز انتشار التكنولوجيا.
في الأسبوع الماضي ، تم تسريب نموذج LLaMA ، وهو نموذج ذكاء اصطناعي تم تطويره بواسطة Meta – ومشابه للنموذج الموجود في جوهر ChatGPT – عبر الإنترنت بعد مشاركته مع بعض الباحثين الأكاديميين. يمكن استخدام النظام كعنصر أساسي في إنشاء روبوت محادثة وإصداره أثار القلق من بين أولئك الذين يخشون أن أنظمة الذكاء الاصطناعي المعروفة باسم نماذج اللغات الكبيرة ، وروبوتات الدردشة المبنية عليها مثل ChatGPT ، ستُستخدم لتوليد معلومات خاطئة أو لأتمتة انتهاكات الأمن السيبراني. يجادل بعض الخبراء بأن مثل هذه المخاطر قد تكون مبالغ فيها ، ويقترح آخرون أن جعل التكنولوجيا أكثر شفافية سيساعد في الواقع الآخرين على الحماية من سوء الاستخدام.
رفضت Meta الإجابة على الأسئلة حول التسريب ، لكن المتحدث باسم الشركة آشلي غابرييل قدم بيانًا قال فيه: “في حين أن النموذج غير متاح للجميع ، وحاول البعض التحايل على عملية الموافقة ، نعتقد أن استراتيجية الإصدار الحالية تسمح لنا بموازنة المسؤولية . ” والانفتاح “.