Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

التدافع لإنقاذ أبحاث Twitter من Elon Musk


منذ عامين، أطلق تويتر ما قد يكون أكثر محاولات صناعة التكنولوجيا طموحًا لتحقيق الشفافية الخوارزمية. كتب باحثوها أوراقًا تُظهر أن نظام الذكاء الاصطناعي في تويتر لاقتصاص الصور في التغريدات يفضل الوجوه البيضاء والنساء ، وذلك تلقت المنشورات من اليمين السياسي في العديد من البلدان ، بما في ذلك الولايات المتحدة والمملكة المتحدة وفرنسا ، دفعة خوارزمية أكبر من أولئك الذين من اليسار.

بحلول أوائل أكتوبر من العام الماضي ، عندما واجه Elon Musk موعدًا نهائيًا للمحكمة لإكمال استحواذه على Twitter بقيمة 44 مليار دولار ، كان أحدث بحث للشركة جاهزًا تقريبًا. أظهر أن أحد برامج التعلم الآلي قد خفض ترتيب بعض التغريدات بشكل غير صحيح ، حيث ذكر أيًا من 350 مصطلحًا متعلقًا بالهوية أو السياسة أو النشاط الجنسي ، بما في ذلك “مثلي” و “مسلم” و “أصم” ، لأن نظامًا يهدف إلى الحد من مشاهدات التغريدات المداهمة . كما أعاقت المجموعات المهمشة المشاركات التي تحتفل بهذه المجتمعات. يمكن أن يساعد الاكتشاف – والإصلاح الجزئي الذي تم تطويره على Twitter – المنصات الاجتماعية الأخرى على استخدام الذكاء الاصطناعي بشكل أفضل لمراقبة المحتوى. لكن هل يمكن لأي شخص أن يقرأ البحث؟

كان ماسك قد دعم قبل أشهر الشفافية الخوارزمية ، قائلاً إنه يريد “فتح مصدر” كود توصية محتوى تويتر. من ناحية أخرى ، قال ماسك إنه سيعيد الحسابات الشعبية المحظورة بشكل دائم بسبب التغريدات المخالفة للقواعد. كما أنه سخر من بعض المجتمعات نفسها التي كان باحثو تويتر يسعون إلى حمايتها واشتكى من عدم تحديدهافيروس استيقاظ العقل. ” بالإضافة إلى ذلك ، فإن علماء الذكاء الاصطناعي لدى Musk في Tesla لم ينشروا أي بحث بشكل عام.

قرر باحثو أخلاقيات الذكاء الاصطناعي في Twitter في النهاية أن آفاقهم كانت غامضة للغاية تحت حكم Musk للانتظار حتى يتم نشر دراستهم في مجلة أكاديمية أو حتى الانتهاء من الكتابة. مدونة شركة بريد. لذلك قبل أقل من ثلاثة أسابيع من تولي ماسك للملكية أخيرًا في 27 أكتوبر ، سارعوا بدراسة التحيز المعتدل إلى خدمة الوصول المفتوح Arxiv ، حيث ينشر العلماء بحثًا لم يخضع بعد لمراجعة الأقران.

يقول رومان شودري ، الذي كان حينها مديرًا هندسيًا في مجموعة أخلاقيات التعلم الآلي والشفافية والمساءلة ، المعروفة باسم META: “كنا قلقين بحق بشأن ما سيترتب على هذا التغيير في القيادة”. “هناك الكثير من الأيديولوجيا وسوء الفهم حول نوع العمل الذي تقوم به فرق أخلاقيات العمل كجزء من بعض الأجندة الليبرالية التي استيقظت ، مقابل كونها عملًا علميًا في الواقع.”

دفع القلق بشأن نظام المسك الباحثين في جميع أنحاء Cortex ، منظمة البحث والتعلم الآلي التابعة لتويتر ، إلى نشر سلسلة من الدراسات خلسة في وقت أقرب بكثير مما كان مخططًا له ، وفقًا لشودري وخمسة موظفين سابقين آخرين. شملت النتائج موضوعات تشمل المعلومات الخاطئة وخوارزميات التوصيات. الضغط المحموم والأوراق المنشورة لم يتم الإبلاغ عنها من قبل.

أراد الباحثون الحفاظ على المعرفة المكتشفة في Twitter لأي شخص لاستخدامها وتحسين الشبكات الاجتماعية الأخرى. يقول كيرا يي ، المؤلف الرئيسي لورقة الإشراف: “أشعر بالحماسة الشديدة لضرورة أن تتحدث الشركات بصراحة أكبر عن المشكلات التي تواجهها وتحاول أن تتولى زمام الأمور ، وأن تظهر للناس أن الأمر أشبه بشيء يمكن تنفيذه”.

لم يستجب Twitter و Musk لطلب مفصل عبر البريد الإلكتروني للتعليق على هذه القصة.

عمل الفريق في دراسة أخرى طوال الليل لإجراء تعديلات نهائية قبل النقر على Publish on Arxiv في اليوم الذي استخدم فيه Musk Twitter ، كما يقول أحد الباحثين ، متحدثًا مجهولًا خوفًا من انتقام Musk. يقول المصدر: “كنا نعلم أن المدرج سيغلق عندما هبطت طائرة Elon jumbo النفاثة”. كنا نعلم أننا بحاجة إلى القيام بذلك قبل إقفال عملية الاستحواذ. يمكننا أن نلصق علمًا على الأرض ونقول إنه موجود “.

لم يكن الخوف في غير محله. فقد معظم باحثي تويتر وظائفهم أو استقالوا تحت إدارة ماسك. في فريق META ، قام Musk بتسريح الجميع باستثناء شخص واحد في 4 نوفمبر ، واستقال العضو المتبقي ، المؤسس المشارك وقائد البحث لوكا بيلي ، في وقت لاحق من الشهر.



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى