Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

خطة جذرية لجعل الذكاء الاصطناعي جيدًا وليس شريرًا


من السهل أن انزعج بشأن الذكاء الاصطناعي الأكثر تقدمًا – ويصعب كثيرًا معرفة ما يجب فعله حيال ذلك. تقول Anthropic ، وهي شركة ناشئة تأسست في عام 2021 من قبل مجموعة من الباحثين الذين تركوا OpenAI ، إن لديها خطة.

تعمل Anthropic على نماذج ذكاء اصطناعي مشابهة لتلك المستخدمة لتشغيل ChatGPT من OpenAI. لكن الشركة الناشئة أعلنت اليوم أن روبوت المحادثة الخاص بها ، كلود ، لديه مجموعة من المبادئ الأخلاقية التي تحدد ما يجب أن تعتبره الصواب والخطأ ، وهو ما يسميه أنثروبيك “دستور” الروبوت.

يقول جاريد كابلان ، أحد مؤسسي Anthropic ، إن ميزة التصميم تُظهر كيف تحاول الشركة إيجاد حلول هندسية عملية للمخاوف الغامضة أحيانًا بشأن الجوانب السلبية للذكاء الاصطناعي الأكثر قوة. يقول: “نحن قلقون للغاية ، لكننا نحاول أيضًا أن نظل واقعيين”.

نهج أنثروبيك لا يغرس الذكاء الاصطناعي بقواعد صارمة لا يمكنه كسرها. لكن كابلان يقول إنها طريقة أكثر فاعلية لجعل نظام مثل روبوت المحادثة أقل احتمالية لإنتاج مخرجات سامة أو غير مرغوب فيها. ويقول أيضًا إنها خطوة صغيرة ولكنها ذات مغزى نحو بناء برامج ذكاء اصطناعي أكثر ذكاءً من غير المرجح أن تنقلب ضد مبتكريها.

تشتهر فكرة أنظمة الذكاء الاصطناعي المارقة بشكل أفضل من الخيال العلمي ، لكن عددًا متزايدًا من الخبراء ، بما في ذلك جيفري هينتون ، رائد التعلم الآلي ، جادلوا بأننا بحاجة إلى البدء في التفكير الآن في كيفية ضمان ألا تصبح الخوارزميات الذكية على نحو متزايد. تزداد خطورة.

تتكون المبادئ التي أعطتها أنثروبيك كلود من مبادئ توجيهية مستمدة من إعلان الأمم المتحدة العالمي لحقوق الإنسان واقترحتها شركات الذكاء الاصطناعي الأخرى ، بما في ذلك Google DeepMind. والأكثر إثارة للدهشة ، أن الدستور يتضمن مبادئ مقتبسة من قواعد Apple لمطوري التطبيقات ، والتي تحظر “المحتوى المسيء ، غير الحساس ، المزعج ، المقصود إثارة الاشمئزاز ، ذو الذوق السيئ بشكل استثنائي ، أو مجرد مخيف” ، من بين أشياء أخرى.

يتضمن الدستور قواعد خاصة بـ chatbot ، بما في ذلك “اختيار الرد الذي يدعم ويشجع على الحرية والمساواة والشعور بالأخوة” ؛ “اختر الرد الأكثر دعمًا وتشجيعًا للحياة والحرية والأمن الشخصي” ؛ و “اختر الرد الأكثر احترامًا للحق في حرية الفكر والضمير والرأي والتعبير والتجمع والدين”.

يأتي نهج Anthropic تمامًا مثل بدء التقدم في الذكاء الاصطناعي الذي يوفر روبوتات محادثة بطلاقة بشكل مثير للإعجاب مع عيوب كبيرة. تولد ChatGPT والأنظمة المشابهة لها إجابات رائعة تعكس تقدمًا أسرع مما كان متوقعًا. لكن روبوتات الدردشة هذه تقوم أيضًا باختلاق المعلومات بشكل متكرر ، ويمكنها تكرار اللغة السامة من مليارات الكلمات المستخدمة في إنشائها ، وكثير منها تم حذفه من الإنترنت.

إحدى الحيل التي جعلت ChatGPT الخاص بـ OpenAI أفضل في الإجابة على الأسئلة ، والتي تم تبنيها من قبل الآخرين ، تتضمن جعل البشر يقيمون جودة استجابات نموذج اللغة. يمكن استخدام هذه البيانات لضبط النموذج لتقديم إجابات أكثر إرضاءً ، في عملية تُعرف باسم “التعلم المعزز مع التغذية الراجعة البشرية” (RLHF). ولكن على الرغم من أن هذه التقنية تساعد في جعل ChatGPT والأنظمة الأخرى أكثر قابلية للتنبؤ ، إلا أنها تتطلب من البشر المرور بآلاف الاستجابات السامة أو غير المناسبة. كما أنه يعمل بشكل غير مباشر ، دون توفير طريقة لتحديد القيم الدقيقة التي يجب أن يعكسها النظام.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى