تقنية

لماذا نوقف أبحاث الذكاء الاصطناعي عندما نعرف بالفعل كيف نجعلها أكثر أمانًا


الأسبوع الماضي ، نشر معهد Future of Life رسالة مفتوحة تقترح تأجيل سباق الذكاء الاصطناعي “الخطير” لمدة ستة أشهر. ومنذ ذلك الحين تم التوقيع عليها من قبل أكثر من 3000 شخص ، بما في ذلك بعض الأعضاء المؤثرين في مجتمع الذكاء الاصطناعي. ولكن في حين أنه من الجيد أن مخاطر أنظمة الذكاء الاصطناعي تجمع الرؤية داخل المجتمع وعبر المجتمع ، فإن كل من القضايا الموضحة والإجراءات المقترحة في الرسالة غير واقعية وغير ضرورية.

إن الدعوة إلى وقف عمل الذكاء الاصطناعي ليست غامضة فحسب ، بل إنها غير مجدية أيضًا. في حين أن تدريب النماذج اللغوية الكبيرة من قبل الشركات الهادفة للربح يحظى بأكبر قدر من الاهتمام ، إلا أنه ليس النوع الوحيد من أعمال الذكاء الاصطناعي التي يتم إجراؤها. في الواقع ، تجري أبحاث وممارسات الذكاء الاصطناعي في الشركات والأوساط الأكاديمية وفي مسابقات Kaggle في جميع أنحاء العالم حول العديد من الموضوعات التي تتراوح من الكفاءة إلى السلامة. هذا يعني أنه لا يوجد زر سحري يمكن لأي شخص الضغط عليه من شأنه أن يوقف أبحاث الذكاء الاصطناعي “الخطيرة” بينما يسمح فقط للنوع “الآمن”. ومخاطر الذكاء الاصطناعي المذكورة في الرسالة كلها افتراضية ، تستند إلى عقلية طويلة الأمد تميل إلى التغاضي عن المشاكل الحقيقية مثل التمييز الخوارزمي والسياسة التنبؤية ، التي تضر الأفراد الآن ، لصالح المخاطر الوجودية المحتملة على البشرية.

بدلاً من التركيز على الطرق التي قد يفشل بها الذكاء الاصطناعي في المستقبل ، يجب أن نركز على التحديد الواضح لما يشكل نجاحًا للذكاء الاصطناعي في الوقت الحاضر. هذا المسار واضح بشكل بارز: فبدلاً من تطوير البحث المتوقف ، نحتاج إلى تحسين الشفافية والمساءلة أثناء وضع مبادئ توجيهية حول نشر أنظمة الذكاء الاصطناعي. توجد مبادرات للسياسة والبحث والمستخدمين على هذا المنوال منذ عقود في قطاعات مختلفة ، ولدينا بالفعل مقترحات ملموسة للعمل معها لمعالجة المخاطر الحالية للذكاء الاصطناعي.

تقوم السلطات التنظيمية في جميع أنحاء العالم بالفعل بصياغة قوانين وبروتوكولات لإدارة استخدام وتطوير تقنيات الذكاء الاصطناعي الجديدة. يعد قانون المساءلة الخوارزمية الصادر عن مجلس الشيوخ الأمريكي والمبادرات المماثلة في الاتحاد الأوروبي وكندا من بين تلك التي تساعد في تحديد البيانات التي يمكن وما لا يمكن استخدامها لتدريب أنظمة الذكاء الاصطناعي ، ومعالجة قضايا حقوق النشر والترخيص ، وتقييم الاعتبارات الخاصة اللازمة لاستخدام الذكاء الاصطناعي. في البيئات عالية الخطورة. أحد الأجزاء المهمة من هذه القواعد هو الشفافية: مطالبة منشئي أنظمة الذكاء الاصطناعي بتقديم مزيد من المعلومات حول التفاصيل الفنية مثل مصدر بيانات التدريب ، والشفرة المستخدمة لتدريب النماذج ، وكيفية تنفيذ ميزات مثل مرشحات الأمان. يمكن لمطوري نماذج الذكاء الاصطناعي ومستخدميهم دعم هذه الجهود من خلال الانخراط مع ممثليهم والمساعدة في صياغة التشريعات حول الأسئلة الموضحة أعلاه. بعد كل شيء ، يتم استخدام بياناتنا وتأثر سبل عيشنا.

لكن إتاحة هذا النوع من المعلومات لا يكفي وحده. يجب أن تسمح الشركات التي تطور نماذج الذكاء الاصطناعي أيضًا بالتدقيق الخارجي لأنظمتها ، وأن تخضع للمساءلة لمواجهة المخاطر وأوجه القصور إذا تم تحديدها. على سبيل المثال ، العديد من أحدث نماذج الذكاء الاصطناعي مثل ChatGPT و Bard و GPT-4 هي أيضًا الأكثر تقييدًا ، وهي متاحة فقط عبر واجهة برمجة التطبيقات أو الوصول المحصور الذي تتحكم فيه بالكامل الشركات التي أنشأتها. هذا يجعلها في الأساس مربعات سوداء يمكن أن يتغير إنتاجها من يوم إلى آخر أو ينتج عنها نتائج مختلفة لأشخاص مختلفين. على الرغم من وجود بعض المجموعات الحمراء المعتمدة من الشركة للأدوات مثل GPT-4 ، فلا توجد طريقة للباحثين للوصول إلى الأنظمة الأساسية ، مما يجعل التحليل العلمي والمراجعات مستحيلة. يتعارض هذا مع مناهج تدقيق أنظمة الذكاء الاصطناعي التي اقترحها علماء مثل ديبورا راجي ، التي دعت إلى نظرة عامة في مراحل مختلفة من عملية تطوير النموذج بحيث يتم اكتشاف السلوكيات الخطرة والأضرار قبل نشر النماذج في المجتمع.

خطوة أخرى مهمة نحو السلامة هي إعادة التفكير بشكل جماعي في الطريقة التي نخلق بها الذكاء الاصطناعي ونستخدمه. يمكن لمطوري وباحثي الذكاء الاصطناعي البدء في وضع قواعد وإرشادات لممارسة الذكاء الاصطناعي من خلال الاستماع إلى العديد من الأفراد الذين كانوا يدافعون عن المزيد من الذكاء الاصطناعي الأخلاقي لسنوات. وهذا يشمل باحثين مثل Timnit Gebru ، الذي اقترح حركة “الذكاء الاصطناعي البطيئة” ، و Ruha Benjamin ، التي شددت على أهمية إنشاء مبادئ توجيهية للذكاء الاصطناعي الأخلاقي خلال عرضها الرئيسي في مؤتمر AI الأخير. المبادرات المجتمعية ، مثل مدونة الأخلاقيات التي ينفذها مؤتمر NeurIPS (جهد أترأسه) ، هي أيضًا جزء من هذه الحركة ، وتهدف إلى وضع مبادئ توجيهية حول ما هو مقبول فيما يتعلق بأبحاث الذكاء الاصطناعي وكيفية التفكير فيه. آثارها الأوسع على المجتمع.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى