بعد خمسة أيام شنت روسيا غزوها الشامل لأوكرانيا ، قبل عام من هذا الأسبوع ، قدمت شركة Clearview AI للتعرف على الوجه ومقرها الولايات المتحدة الحكومة الأوكرانية حرية الوصول إلى تقنيتها ، مما يشير إلى أنه يمكن استخدامها لم شمل العائلات ، وتحديد العملاء الروس ، والقتال. معلومات مضللة. بعد فترة وجيزة ، كشفت الحكومة الأوكرانية أنها تستخدم التكنولوجيا لمسح وجوه الجنود الروس القتلى للتعرف على جثثهم وإخطار عائلاتهم. بحلول كانون الأول (ديسمبر) 2022 ، كان ميخايلو فيدوروف ، نائب رئيس الوزراء الأوكراني ووزير التحول الرقمي التغريد صورة له مع الرئيس التنفيذي لشركة Clearview AI ، هوان تون ، يشكر الشركة على دعمها.
إن محاسبة الموتى وإعلام العائلات بمصير أقاربهم هو أمر حتمي من حقوق الإنسان المكتوبة في المعاهدات والبروتوكولات والقوانين الدولية مثل اتفاقيات جنيف والمبادئ التوجيهية للجنة الدولية للصليب الأحمر (اللجنة الدولية للصليب الأحمر) من أجل الإدارة الكريمة للصليب الأحمر. ميت. كما أنه مرتبط بالتزامات أعمق بكثير. تعتبر رعاية الموتى من أقدم الممارسات البشرية ، والتي تجعلنا بشرًا ، مثلها مثل اللغة والقدرة على التأمل الذاتي. المؤرخ توماس لاكوير ، في تأمله الملحمي ، عمل الموتىو يكتب أنه “بقدر ما ناقش الناس هذا الموضوع ، فقد اعتبرت رعاية الموتى أساسًا – للدين ، والنظام السياسي ، والعشيرة ، والقبيلة ، والقدرة على الحداد ، وفهم المحدود من الحياة والحضارة نفسها “. لكن تحديد الموتى باستخدام تقنية التعرف على الوجه يستخدم الوزن الأخلاقي لهذا النوع من الرعاية للسماح بتكنولوجيا تثير مخاوف جسيمة بشأن حقوق الإنسان.
في أوكرانيا ، الحرب الأكثر دموية في أوروبا منذ الحرب العالمية الثانية ، قد يبدو التعرف على الوجه مجرد أداة أخرى تم جلبها إلى المهمة القاتمة المتمثلة في تحديد هوية القتلى ، إلى جانب رقمنة سجلات المشرحة ، ومختبرات الحمض النووي المتنقلة ، ونبش القبور الجماعية.
لكن هل تعمل؟ يقول Ton-That إن تقنية شركته “تعمل بشكل فعال بغض النظر عن تلف الوجه الذي قد يكون قد حدث لشخص متوفى”. هناك القليل من الأبحاث لدعم هذا التأكيد ، لكن مؤلفي دراسة واحدة صغيرة وجدوا نتائج “واعدة” حتى بالنسبة للوجوه في حالات التحلل. ومع ذلك ، فإن عالم الأنثروبولوجيا الشرعي لويس فوندبريدير ، الرئيس السابق لخدمات الطب الشرعي للجنة الدولية للصليب الأحمر ، والذي عمل في مناطق النزاع حول العالم ، يلقي بظلال من الشك على هذه الادعاءات. يقول: “تفتقر هذه التكنولوجيا إلى المصداقية العلمية”. “إنه غير مقبول على الإطلاق من قبل مجتمع الطب الشرعي.” (يظل تحديد الحمض النووي هو المعيار الذهبي). مجال الطب الشرعي “يفهم التكنولوجيا وأهمية التطورات الجديدة” ولكن الاندفاع لاستخدام التعرف على الوجه هو “مزيج من السياسة والأعمال مع القليل جدًا من العلم” ، من وجهة نظر فوندبرايدر. يقول: “لا توجد حلول سحرية لتحديد الهوية”.
قد يؤدي استخدام تقنية غير مثبتة لتحديد الجنود القتلى إلى ارتكاب الأخطاء وإحداث صدمة للعائلات. ولكن حتى إذا كان استخدام الطب الشرعي لتقنية التعرف على الوجه مدعومًا بأدلة علمية ، فلا ينبغي استخدامها لتسمية الموتى. إنه خطير للغاية على الأحياء.
أعلنت المنظمات بما في ذلك منظمة العفو الدولية ، ومؤسسة الحدود الإلكترونية ، ومشروع مراقبة تكنولوجيا المراقبة ، ومشروع الدفاع عن المهاجرين ، أن تقنية التعرف على الوجه شكلاً من أشكال المراقبة الجماعية التي تهدد الخصوصية ، وتضخم الشرطة العنصرية ، وتهدد الحق في الاحتجاج ، ويمكن أن تؤدي إلى ارتكاب جرائم غير مشروعة. يقبض على. يقول داميني ساتيجا ، رئيس مختبر المساءلة الخوارزمية في منظمة العفو الدولية ونائب مدير تكنولوجيا منظمة العفو الدولية ، إن تقنية التعرف على الوجه تقوض حقوق الإنسان من خلال “إعادة إنتاج التمييز الهيكلي على نطاق واسع وأتمتة وترسيخ عدم المساواة المجتمعية القائمة”. في روسيا ، تُستخدم تقنية التعرف على الوجه لسحق المعارضة السياسية. لا تفي بالمعايير القانونية والأخلاقية عند استخدامها في إنفاذ القانون في المملكة المتحدة والولايات المتحدة ، ويتم تسليحها ضد المجتمعات المهمشة في جميع أنحاء العالم.
تمتلك Clearview AI ، التي تبيع سلعها للشرطة بشكل أساسي ، واحدة من أكبر قواعد البيانات المعروفة لصور الوجه ، في 20 مليار صورة ، مع خطط لجمع 100 مليار صورة إضافية – أي ما يعادل 14 صورة لكل شخص على هذا الكوكب. لقد وعدت الشركة المستثمرين بأنه قريبًا “سيتم التعرف على كل شخص في العالم تقريبًا”. أعلن المنظمون في إيطاليا وأستراليا والمملكة المتحدة وفرنسا أن قاعدة بيانات Clearview غير قانونية وأمروا الشركة بحذف صور مواطنيها. في الاتحاد الأوروبي ، دعا تحالف “استعادة وجهك” ، وهو تحالف يضم أكثر من 40 منظمة مجتمع مدني ، إلى فرض حظر كامل على تقنية التعرف على الوجه.
باحث أخلاقيات الذكاء الاصطناعي تقول ستيفاني هير إن أوكرانيا “تستخدم أداة ، وتروج لشركة ومدير تنفيذي ، لم يتصرفوا فقط بشكل غير أخلاقي ولكن بشكل غير قانوني”. تخمن أنها حالة “الغاية تبرر الوسيلة” ، لكنها تتساءل ، “لماذا من المهم جدًا أن تتمكن أوكرانيا من التعرف على الجنود الروس القتلى باستخدام Clearview AI؟ كيف يكون هذا ضروريًا للدفاع عن أوكرانيا أو لكسب الحرب؟