Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

أصبحت روبوتات الدردشة التي تعمل بالذكاء الاصطناعي كبيرة ، وأصبحت أعلامها الحمراء الأخلاقية أكبر


يقول سليمان إن كل تقييم هو نافذة على نموذج الذكاء الاصطناعي ، وليس قراءة مثالية لكيفية أدائه دائمًا. لكنها تأمل أن تجعل من الممكن تحديد ووقف الأضرار التي يمكن أن يسببها الذكاء الاصطناعي لأن هناك حالات مثيرة للقلق قد ظهرت بالفعل ، بما في ذلك لاعبو لعبة AI Dungeon الذين يستخدمون GPT-3 لإنشاء نص يصف مشاهد جنسية تتضمن أطفالًا. يقول سليمان: “هذه حالة متطرفة لما لا يمكننا السماح بحدوثه”.

وجد أحدث بحث لسليمان في Hugging Face أن شركات التكنولوجيا الكبرى اتبعت نهجًا مغلقًا بشكل متزايد تجاه النماذج التوليدية التي أصدرتها من 2018 إلى 2022. تسارع هذا الاتجاه مع فرق الذكاء الاصطناعي في Alphabet في Google و DeepMind ، وعلى نطاق أوسع عبر الشركات التي تعمل على الذكاء الاصطناعي بعد الإصدار المرحلي لـ GPT-2. يقول سليمان إن الشركات التي تحمي اختراقاتها كأسرار تجارية يمكنها أيضًا أن تجعل طليعة الذكاء الاصطناعي أقل وصولًا للباحثين المهمشين بموارد قليلة.

مع دفع المزيد من الأموال إلى نماذج اللغات الكبيرة ، تعمل الإصدارات المغلقة على عكس الاتجاه الذي شوهد طوال تاريخ مجال معالجة اللغة الطبيعية. قام الباحثون تقليديًا بمشاركة التفاصيل حول مجموعات بيانات التدريب وأوزان المعلمات والتعليمات البرمجية لتعزيز إمكانية استنساخ النتائج.

يقول أليكس تامكين ، طالب الدكتوراة بجامعة ستانفورد ، والذي يركز عمله على نماذج اللغة الكبيرة: “لدينا القليل بشكل متزايد من المعرفة حول أنظمة قواعد البيانات التي تم تدريبها أو كيفية تقييمها ، خاصة بالنسبة لأقوى الأنظمة التي يتم إصدارها كمنتجات”.

ينسب الفضل إلى الأشخاص في مجال أخلاقيات الذكاء الاصطناعي في زيادة الوعي العام حول سبب خطورة التحرك بسرعة وكسر الأشياء عندما يتم نشر التكنولوجيا لمليارات الأشخاص. بدون هذا العمل في السنوات الأخيرة ، يمكن أن تكون الأمور أسوأ بكثير.

في خريف 2020 ، شارك تامكين في قيادة ندوة مع مدير سياسة OpenAI ، مايلز بروندج ، حول التأثير الاجتماعي لنماذج اللغات الكبيرة. أكدت المجموعة متعددة التخصصات على ضرورة قيام قادة الصناعة بوضع معايير أخلاقية واتخاذ خطوات مثل إجراء تقييمات التحيز قبل النشر وتجنب حالات استخدام معينة.

يعتقد تامكين أن خدمات تدقيق الذكاء الاصطناعي الخارجية بحاجة إلى النمو جنبًا إلى جنب مع الشركات التي تعتمد على الذكاء الاصطناعي لأن التقييمات الداخلية تميل إلى التقصير. وهو يعتقد أن أساليب التقييم التشاركية التي تشمل أعضاء المجتمع وأصحاب المصلحة الآخرين لديها إمكانات كبيرة لزيادة المشاركة الديمقراطية في إنشاء نماذج الذكاء الاصطناعي.

تقول ميرف هيكوك ، وهي مديرة أبحاث في مركز أخلاقيات وسياسات الذكاء الاصطناعي في جامعة ميشيغان ، إن محاولة إقناع الشركات بوضع ضجيج الذكاء الاصطناعي جانباً أو ثقبه ، وتنظيم نفسها ، واعتماد مبادئ الأخلاق ليس كافياً. إن حماية حقوق الإنسان تعني نقل المحادثات السابقة حول ما هو أخلاقي وإلى محادثات حول ما هو قانوني ، كما تقول.

يشاهد كل من Hickok و Hanna من DAIR الاتحاد الأوروبي وهو يضع اللمسات الأخيرة على قانون الذكاء الاصطناعي الخاص به هذا العام لمعرفة كيفية تعامله مع النماذج التي تولد النص والصور. قالت هيكوك إنها مهتمة بشكل خاص بمعرفة كيفية تعامل المشرعين الأوروبيين مع المسؤولية عن الضرر الذي يشمل النماذج التي أنشأتها شركات مثل Google و Microsoft و OpenAI.

يقول هيكوك: “هناك بعض الأشياء التي يجب تفويضها لأننا رأينا مرارًا وتكرارًا أنه إذا لم يتم تفويضها ، فإن هذه الشركات تستمر في تحطيم الأشياء وتواصل الضغط من أجل الربح على الحقوق ، والربح على المجتمعات”.

بينما يتم تجزئة السياسة في بروكسل ، تظل المخاطر كبيرة. بعد يوم واحد من الخطأ التجريبي البارد ، أدى انخفاض سعر سهم Alphabet إلى خفض القيمة السوقية بنحو 100 مليار دولار. يقول هانا: “إنها المرة الأولى التي أرى فيها هذا التدمير للثروة بسبب خطأ كبير في نموذج اللغة بهذا المقياس”. لكنها ليست متفائلة بأن هذا سيقنع الشركة بإبطاء اندفاعها في الإطلاق. “أظن أنها لن تكون حكاية تحذيرية”.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى