تقنية

الذكاء الاصطناعي بحاجة ماسة إلى رقابة عالمية


كل الوقت انت قم بنشر صورة أو الرد على وسائل التواصل الاجتماعي أو إنشاء موقع ويب أو حتى إرسال بريد إلكتروني ، يتم كشط بياناتك وتخزينها واستخدامها لتدريب تقنية الذكاء الاصطناعي التوليدية التي يمكنها إنشاء نصوص وصوت وفيديو وصور ببضع كلمات فقط . هذا له عواقب حقيقية: قدّر باحثو OpenAI الذين يدرسون تأثير سوق العمل لنماذج لغتهم أن ما يقرب من 80 بالمائة من القوى العاملة في الولايات المتحدة يمكن أن تتأثر بنسبة 10 بالمائة على الأقل من مهام عملهم بإدخال نماذج لغة كبيرة (LLMs) مثل ChatGPT ، بينما قد يرى حوالي 19 بالمائة من العمال تأثر نصف مهامهم على الأقل. نحن نشهد تحولًا فوريًا في سوق العمل مع توليد الصور أيضًا. بمعنى آخر ، قد تؤدي البيانات التي قمت بإنشائها إلى طردك من الوظيفة.

عندما تبني شركة تقنيتها على مورد عام – الإنترنت – فمن المنطقي أن نقول إن هذه التكنولوجيا يجب أن تكون متاحة ومفتوحة للجميع. لكن النقاد لاحظوا أن GPT-4 تفتقر إلى أي معلومات أو مواصفات واضحة من شأنها أن تمكن أي شخص خارج المنظمة من تكرار أو اختبار أو التحقق من أي جانب من جوانب النموذج. تلقت بعض هذه الشركات مبالغ طائلة من التمويل من شركات كبرى أخرى لإنشاء منتجات تجارية. بالنسبة للبعض في مجتمع الذكاء الاصطناعي ، هذه علامة خطيرة على أن هذه الشركات ستسعى لتحقيق أرباح أعلى من المنفعة العامة.

من غير المرجح أن تضمن شفافية الكود وحدها أن نماذج الذكاء الاصطناعي التوليدية هذه تخدم الصالح العام. هناك القليل من الفوائد الفورية غير المرئية للصحفي أو محلل السياسات أو المحاسب (جميع المهن “عالية التعرض” وفقًا لدراسة OpenAI) إذا كانت البيانات التي تقوم عليها LLM متاحة. لدينا قوانين بشكل متزايد ، مثل قانون الخدمات الرقمية ، والتي تتطلب من بعض هذه الشركات فتح التعليمات البرمجية والبيانات الخاصة بها لمراجعة المدققين الخبراء. ويمكن في بعض الأحيان أن تمكّن التعليمات البرمجية مفتوحة المصدر الجهات الفاعلة الخبيثة ، مما يسمح للقراصنة بتخريب احتياطات السلامة التي تبنيها الشركات. الشفافية هدف جدير بالثناء ، لكن هذا وحده لن يضمن استخدام الذكاء الاصطناعي التوليدي لتحسين المجتمع.

من أجل تحقيق منفعة عامة حقًا ، نحتاج إلى آليات للمساءلة. يحتاج العالم إلى هيئة حوكمة عالمية للذكاء الاصطناعي من أجل حل هذه الاضطرابات الاجتماعية والاقتصادية والسياسية بما يتجاوز ما تستطيع أي حكومة فردية القيام به ، أو ما يمكن لأي مجموعة أكاديمية أو مجتمع مدني تنفيذه ، أو أي شركة مستعدة أو قادرة على القيام به. توجد بالفعل سابقة للتعاون العالمي من قبل الشركات والبلدان لتحميل نفسها المسؤولية عن النتائج التكنولوجية. لدينا أمثلة على مجموعات الخبراء المستقلة والممولة تمويلًا جيدًا والمنظمات التي يمكنها اتخاذ قرارات نيابة عن الصالح العام. كيان مثل هذا مكلف بالتفكير في الفوائد التي تعود على الإنسانية. دعونا نبني على هذه الأفكار لمعالجة القضايا الأساسية التي ظهرت بالفعل في الذكاء الاصطناعي التوليدي.

في عصر الانتشار النووي بعد الحرب العالمية الثانية ، على سبيل المثال ، كان هناك مخاوف ذات مصداقية وكبيرة من أن تصبح التقنيات النووية شريرة. الاعتقاد السائد بأن المجتمع يجب أن يتصرف بشكل جماعي لتجنب كارثة عالمية يردد صدى العديد من المناقشات اليوم حول نماذج الذكاء الاصطناعي التوليدية. رداً على ذلك ، اجتمعت دول حول العالم ، بقيادة الولايات المتحدة وبتوجيه من الأمم المتحدة ، لتشكيل الوكالة الدولية للطاقة الذرية (IAEA) ، وهي هيئة مستقلة خالية من الانتماءات الحكومية والشركات التي من شأنها أن تقدم حلولاً للأبعد. الوصول إلى القدرات اللانهائية على ما يبدو للتقنيات النووية. وهي تعمل في ثلاثة مجالات رئيسية: الطاقة النووية ، والسلامة والأمن النوويين ، والضمانات. على سبيل المثال ، بعد كارثة فوكوشيما في عام 2011 ، قدمت الموارد الحيوية والتعليم والاختبار وتقارير الأثر ، وساعدت في ضمان استمرار السلامة النووية. ومع ذلك ، فإن الوكالة محدودة: فهي تعتمد على الدول الأعضاء فيها للامتثال طوعًا لمعاييرها وإرشاداتها ، وعلى تعاونها ومساعدتها في تنفيذ مهمتها.

في مجال التكنولوجيا ، يعد مجلس الإشراف على Facebook إحدى محاولات العمل لتحقيق التوازن بين الشفافية والمساءلة. أعضاء مجلس الإدارة عبارة عن مجموعة عالمية متعددة التخصصات ، وأحكامهم ، مثل نقض قرار اتخذه فيسبوك لإزالة منشور يصور التحرش الجنسي في الهند ، ملزمة. هذا النموذج ليس مثاليًا أيضًا ؛ هناك اتهامات بالاستيلاء على الشركة ، حيث يتم تمويل مجلس الإدارة فقط من قبل Meta ، ويمكن فقط سماع الحالات التي يشير إليها Facebook نفسه ، ويقتصر على إزالة المحتوى ، بدلاً من معالجة المزيد من المشكلات المنهجية مثل الخوارزميات أو سياسات الإشراف.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى