Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
موبايلات

يضيف تحديث الإصدار التجريبي من iOS 15.2 من Apple ميزة أمان الأطفال لتطبيق الرسائل


بدأت Apple في طرح تحديث iOS 15.2 beta ، والذي يوفر إحدى ميزات سلامة الأطفال التي أعلنت عنها الشركة في وقت سابق من هذا العام ، على الرغم من وجود تعديل طفيف. يضيف التحديث الأخير ميزة أمان الاتصالات لتطبيق الرسائل ، والتي كما يوحي الاسم تهدف إلى جعل الأطفال أكثر أمانًا عبر الإنترنت.

لم يتم تمكين الميزة الجديدة افتراضيًا وسيتعين على المرء تنشيطها يدويًا في تطبيق الرسائل. بمجرد تمكين الميزة ، يمكن للتطبيق اكتشاف العُري في الصور التي يرسلها الأطفال أو يتلقاها. علاوة على ذلك ، إذا تم إرسال صورة عارية إلى أي شخص ، فسيتم تعتيمها تلقائيًا وسيتلقى الطفل تحذيرات بشأن المحتوى ، وفقًا لتقرير صادر عن Macrumors.

وبحسب ما ورد ستقدم الشركة أيضًا موارد للاتصال بشخص تثق به للحصول على المساعدة. إذا تلقى الطفل صورة عارية ، فسيطلب التطبيق من الطفل عدم مشاهدة الصورة. جدير بالذكر أنه عندما تم الإعلان عن سلامة الاتصالات لأول مرة ، أكدت شركة Apple أنه إذا شاهد طفل صورة عارية في تطبيق الرسائل ، فسيحصل آباء الأطفال الذين تقل أعمارهم عن 13 عامًا على خيار تلقي إشعار بذلك.

ولكن ، يبدو أن Apple قد أزالت خيار الإشعار هذا لأنه قد يشكل خطرًا على الأطفال إذا كانوا متورطين في موقف يوجد فيه عنف أبوي أو إساءة معاملة. يبدو أن شركة Apple قد وجدت حلاً أفضل لهذا الأمر وستساعد في تقديم إرشادات من شخص بالغ موثوق به.

تقول الشركة إن تطبيق Messages يحلل مرفقات الصور للتحقق من العري في الصور وأن هذا لن يؤثر على خصوصية المستخدم لأن الرسائل ستظل مشفرة من طرف إلى طرف. لن تتمكن Apple من الوصول إلى الرسائل.

بالإضافة إلى ذلك ، أعلنت شركة Apple عن ميزة أمان أخرى قبل بضعة أشهر ، وهي تسمى Anti-CSAM (اكتشاف صور الاعتداء الجنسي على الأطفال). هذا يختلف عن ميزة سلامة الاتصالات ومن المتوقع أن يتم طرحها في المستقبل.

من خلال هذه الميزة ، يهدف عملاق Cupertino إلى الكشف عن الاعتداء الجنسي على الأطفال والاتجار في صور iCloud. ولكن ، تم تأخير إطلاق هذه الميزة حيث قالت Apple إنها تعالج أولاً الشكاوى المقدمة من قبل المدافعين عن الخصوصية. تتمثل ميزة مكافحة CSAM في العثور على صور الاعتداء الجنسي على الأطفال عن طريق مسح صور iCloud للمستخدم بمقارنتها بقائمة CSAM المعروفة ، مما أثار مخاوف بشأن الخصوصية. إذا اكتشفت الميزة تطابقات كافية ، فسوف تنبه وسطاء Apple ، الذين يمكنهم بعد ذلك تعطيل الحساب وإبلاغ السلطات القانونية بالصور.



مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى