Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

ChatGPT لديه مشكلة خصوصية كبيرة


عندما صدر OpenAI GPT-3 في يوليو 2020 ، قدمت لمحة عن البيانات المستخدمة لتدريب نموذج اللغة الكبير. تُستخدم ملايين الصفحات التي تم كشطها من الويب ومنشورات Reddit والكتب وغير ذلك لإنشاء نظام النص التوليدي ، وفقًا لورقة فنية. تتضمن هذه البيانات بعض المعلومات الشخصية التي تشاركها عن نفسك عبر الإنترنت. تتسبب هذه البيانات الآن في وقوع OpenAI في مشكلة.

في 31 مارس ، أصدر منظم البيانات الإيطالي قرارًا طارئًا مؤقتًا يطالب OpenAI بالتوقف عن استخدام المعلومات الشخصية لملايين الإيطاليين المضمنة في بيانات التدريب الخاصة بها. وفقًا للجهة التنظيمية ، Garante per la Protezione dei Dati Personali ، لا تتمتع OpenAI بالحق القانوني في استخدام المعلومات الشخصية للأشخاص في ChatGPT. رداً على ذلك ، منعت شركة OpenAI الأشخاص في إيطاليا من الوصول إلى برنامج الدردشة الآلي الخاص بها بينما تقدم ردودًا على المسؤولين ، الذين يحققون بشكل أكبر.

هذا الإجراء هو الأول الذي يتم اتخاذه ضد ChatGPT من قبل منظم غربي ويسلط الضوء على توترات الخصوصية حول إنشاء نماذج عملاقة للذكاء الاصطناعي ، والتي غالبًا ما يتم تدريبها على مساحات شاسعة من بيانات الإنترنت. مثلما اشتكى الفنانون وشركات الإعلام من أن مطوري الذكاء الاصطناعي التوليدي قد استخدموا أعمالهم دون إذن ، فإن منظم البيانات يقول الآن الشيء نفسه بالنسبة للمعلومات الشخصية للأشخاص.

يمكن أن تتبع قرارات مماثلة في جميع أنحاء أوروبا. في الأيام التي تلت إعلان إيطاليا عن تحقيقها ، اتصل منظمو البيانات في فرنسا وألمانيا وأيرلندا بـ Garante لطلب مزيد من المعلومات حول النتائج التي توصل إليها. يقول توبياس جودين ، رئيس الشؤون الدولية في هيئة حماية البيانات النرويجية ، التي تراقب التطورات: “إذا كان نموذج العمل يهدف إلى التخلص من الإنترنت لأي شيء يمكن أن تجده ، فقد تكون هناك مشكلة مهمة حقًا هنا”. يضيف جودين أنه إذا تم بناء نموذج على بيانات قد يتم جمعها بشكل غير قانوني ، فإنه يثير تساؤلات حول ما إذا كان يمكن لأي شخص استخدام الأدوات بشكل قانوني.

تأتي الضربة التي وجهتها إيطاليا إلى أوبن إيه آي في الوقت الذي يزداد فيه التدقيق في نماذج الذكاء الاصطناعي الكبيرة باطراد. في 29 مارس ، دعا قادة التكنولوجيا إلى وقف تطوير أنظمة مثل ChatGPT ، خوفًا من تداعياتها المستقبلية. يقول جودين إن القرار الإيطالي يسلط الضوء على مخاوف أكثر إلحاحًا. يقول جودين: “بشكل أساسي ، نرى أن تطوير الذكاء الاصطناعي حتى الآن يمكن أن يكون له عيب هائل”.

الوظيفة الايطالية

تحمي قواعد القانون العام لحماية البيانات (GDPR) في أوروبا ، والتي تغطي طريقة جمع المؤسسات للبيانات الشخصية للأشخاص وتخزينها واستخدامها ، بيانات أكثر من 400 مليون شخص في جميع أنحاء القارة. يمكن أن تكون هذه البيانات الشخصية أي شيء من اسم الشخص إلى عنوان IP الخاص به – إذا كان من الممكن استخدامها لتحديد هوية شخص ما ، فيمكن اعتبارها معلومات شخصية. على عكس خليط قواعد الخصوصية على مستوى الولاية في الولايات المتحدة ، تنطبق حماية اللائحة العامة لحماية البيانات (GDPR) إذا كانت معلومات الأشخاص متاحة مجانًا عبر الإنترنت. باختصار: لا يعني مجرد كون معلومات شخص ما علنية أنه يمكنك تفريغها وفعل أي شيء تريده بها.

يعتقد Garante الإيطالي أن ChatGPT لديه أربع مشاكل بموجب اللائحة العامة لحماية البيانات: OpenAI ليس لديها ضوابط عمرية لمنع الأشخاص الذين تقل أعمارهم عن 13 عامًا من استخدام نظام إنشاء النصوص ؛ يمكن أن توفر معلومات غير دقيقة عن الأشخاص ؛ ولم يتم إخبار الأشخاص بأنه تم جمع بياناتهم. ولعل الأهم من ذلك ، أن حجته الرابعة تدعي أنه لا يوجد “أساس قانوني” لجمع المعلومات الشخصية للأشخاص في الكم الهائل من البيانات المستخدمة لتدريب ChatGPT.

تقول ليليان إدواردز ، أستاذة القانون والابتكار والمجتمع بجامعة نيوكاسل في المملكة المتحدة: “لقد وصف الإيطاليون خدعتهم”. “بدا واضحًا جدًا في الاتحاد الأوروبي أن هذا كان انتهاكًا لقانون حماية البيانات.”

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى