Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

استعد لانتخابات التزييف العميق لعام 2024


يقول فريد: “يذهلني باستمرار أنه في العالم المادي ، عندما نطلق المنتجات ، هناك إرشادات صارمة حقًا”. “لا يمكنك إطلاق منتج وتأمل ألا يقتل عميلك. لكن مع البرامج ، نحن مثل ، “هذا لا يعمل حقًا ، لكن دعنا نرى ما سيحدث عندما نصدره لمليارات الأشخاص.”

إذا بدأنا في رؤية عدد كبير من التزييف العميق ينتشر خلال الانتخابات ، فمن السهل أن نتخيل شخصًا مثل دونالد ترامب يشارك هذا النوع من المحتوى على وسائل التواصل الاجتماعي ويدعي أنه حقيقي. هناك تزييف عميق لقول الرئيس بايدن بشيء غير مؤهل يمكن أن يظهر قبل فترة وجيزة من الانتخابات ، وقد لا يكتشف الكثير من الناس أنه من صنع الذكاء الاصطناعي. أظهرت الأبحاث باستمرار ، بعد كل شيء ، أن الأخبار المزيفة تنتشر أبعد من الأخبار الحقيقية.

حتى لو لم تنتشر تقنية التزييف العميق في كل مكان قبل انتخابات 2024 ، والتي لا تزال على بعد 18 شهرًا ، فإن مجرد إمكانية إنشاء هذا النوع من المحتوى يمكن أن يؤثر على الانتخابات. إن معرفة أنه يمكن إنشاء صور وصوت وفيديو احتيالية بسهولة نسبية قد يجعل الناس لا يثقون في المواد المشروعة التي يصادفونها.

يقول أجدر: “في بعض النواحي ، لا يحتاج التزييف العميق والذكاء الاصطناعي التوليدي إلى المشاركة في الانتخابات حتى يظلوا يتسببون في اضطراب ، لأن البئر الآن قد تسمم بفكرة أن أي شيء يمكن أن يكون مزيفًا”. يوفر ذلك عذرًا مفيدًا حقًا إذا ظهر شيء غير مريح لك. يمكنك رفضها على أنها مزيفة “.

إذن ما الذي يمكن عمله حيال هذه المشكلة؟ أحد الحلول هو شيء يسمى C2PA. تقوم هذه التقنية بتشفير أي محتوى تم إنشاؤه بواسطة جهاز ، مثل الهاتف أو كاميرا الفيديو ، والمستندات التي التقطت الصورة وأين ومتى. ثم يتم الاحتفاظ بالتوقيع المشفر على دفتر أستاذ مركزي غير قابل للتغيير. سيسمح هذا للأشخاص الذين ينتجون مقاطع فيديو شرعية بإظهار أنها شرعية في الواقع.

تتضمن بعض الخيارات الأخرى ما يسمى بصمات الأصابع والعلامات المائية للصور ومقاطع الفيديو. تتضمن البصمات أخذ ما يسمى “تجزئات” من المحتوى ، والتي هي في الأساس مجرد سلاسل من بياناتها ، لذلك يمكن التحقق من شرعيتها لاحقًا. تتضمن العلامة المائية ، كما قد تتوقع ، إدخال علامة مائية رقمية على الصور ومقاطع الفيديو.

غالبًا ما يُقترح أنه يمكن تطوير أدوات الذكاء الاصطناعي لاكتشاف التزييف العميق ، ولكن لم يتم بيع Ajder على هذا الحل. يقول إن التكنولوجيا ليست موثوقة بدرجة كافية وأنها لن تكون قادرة على مواكبة أدوات الذكاء الاصطناعي المتغيرة باستمرار التي يتم تطويرها.

تتمثل إحدى الاحتمالات الأخيرة لحل هذه المشكلة في تطوير نوع من مدقق الحقائق الفوري لمستخدمي وسائل التواصل الاجتماعي. أفيف عوفاديا ، الباحث في مركز بيركمان كلاين للإنترنت والمجتمع في جامعة هارفارد ، يقول إنه يمكنك إبراز جزء من المحتوى في تطبيق ما وإرساله إلى محرك تهيئة السياق الذي سيعلمك بصدقه.

ليس من السهل محو الأمية الإعلامية التي تتطور بوتيرة التقدم في هذه التكنولوجيا. يجب أن تكون فورية تقريبًا — حيث تنظر إلى شيء تراه عبر الإنترنت ويمكنك الحصول على سياق حول هذا الشيء ، “يقول عوفاديا. ما الذي تبحث عنه؟ يمكنك الرجوع إليه بمصادر يمكنك يثق.”

إذا رأيت شيئًا قد يكون أخبارًا كاذبة ، فيمكن للأداة إبلاغك بسرعة بمدى صحتها. إذا رأيت صورة أو مقطع فيديو يبدو أنه قد يكون مزيفًا ، فيمكنه التحقق من المصادر لمعرفة ما إذا كان قد تم التحقق منه. يقول Ovadya إنه يمكن أن يكون متاحًا داخل تطبيقات مثل WhatsApp و Twitter ، أو قد يكون ببساطة تطبيقًا خاصًا به. المشكلة ، كما يقول ، هي أن العديد من المؤسسين الذين تحدث معهم ببساطة لا يرون الكثير من المال في تطوير مثل هذه الأداة.

يبقى أن نرى ما إذا كان سيتم تبني أي من هذه الحلول الممكنة قبل انتخابات 2024 ، لكن التهديد يتزايد ، وهناك الكثير من الأموال التي تُخصص لتطوير الذكاء الاصطناعي التوليدي والقليل من البحث عن طرق لمنع انتشار هذا النوع من المعلومات المضللة . .

“أعتقد أننا سنشهد طوفانًا من الأدوات ، كما نراه بالفعل ، لكنني أعتقد ذلك [AI-generated political content] سوف تستمر ، “يقول أجدر. بشكل أساسي ، لسنا في وضع جيد للتعامل مع هذه التقنيات القوية سريعة الحركة بشكل لا يصدق.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى