Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

الذكاء الاصطناعي العاطفي ليس بديلاً عن التعاطف


في عام 2023 ، عاطفي ستصبح تقنية الذكاء الاصطناعي – التي يمكنها استشعار المشاعر البشرية والتفاعل معها – أحد التطبيقات المهيمنة للتعلم الآلي. على سبيل المثال ، تقوم Hume AI ، التي أسسها Alan Cowen ، وهو باحث سابق في Google ، بتطوير أدوات لقياس المشاعر من التعبيرات اللفظية والوجهية والصوتية. استحوذت شركة Smart Eyes السويدية مؤخرًا على Affectiva ، وهو فرع MIT Media Lab الذي طور شبكة SoundNet العصبية ، وهي خوارزمية تصنف المشاعر مثل الغضب من عينات الصوت في أقل من 1.2 ثانية. حتى منصة الفيديو Zoom تقدم Zoom IQ ، وهي ميزة ستزود المستخدمين قريبًا بتحليل في الوقت الفعلي للعواطف والمشاركة أثناء اجتماع افتراضي.

في عام 2023 ، ستطلق شركات التكنولوجيا روبوتات محادثة متقدمة يمكنها تقليد المشاعر البشرية عن كثب لخلق المزيد من الاتصالات التعاطفية مع المستخدمين عبر الخدمات المصرفية والتعليم والرعاية الصحية. برنامج الدردشة Xiaoice الخاص بشركة Microsoft ناجح بالفعل في الصين ، حيث تم الإبلاغ عن متوسط ​​عدد المستخدمين الذين تحدثوا معها أكثر من 60 مرة في الشهر. اجتاز أيضًا اختبار Turing ، حيث فشل المستخدمون في التعرف عليه على أنه روبوت لمدة 10 دقائق. يُظهر التحليل الذي أجرته شركة Juniper Research Consultancy أن تفاعلات chatbot في مجال الرعاية الصحية سترتفع بنسبة 167٪ تقريبًا اعتبارًا من عام 2018 لتصل إلى 2.8 مليار تفاعل سنوي في عام 2023. وسيوفر هذا وقت الطاقم الطبي ويحتمل أن يوفر حوالي 3.7 مليار دولار أمريكي لأنظمة الرعاية الصحية حول العالم . .

في عام 2023 ، سيصبح الذكاء الاصطناعي العاطفي شائعًا أيضًا في المدارس. في هونغ كونغ ، تستخدم بعض المدارس الثانوية بالفعل برنامج ذكاء اصطناعي ، تم تطويره بواسطة Find Solutions AI ، والذي يقيس الحركات الدقيقة للعضلات على وجوه الطلاب ويحدد مجموعة من المشاعر السلبية والإيجابية. يستخدم المعلمون هذا النظام لتتبع التغيرات العاطفية لدى الطلاب ، بالإضافة إلى تحفيزهم وتركيزهم ، مما يمكنهم من إجراء تدخلات مبكرة إذا كان التلميذ يفقد الاهتمام.

تكمن المشكلة في أن غالبية الذكاء الاصطناعي العاطفي يعتمد على علم معيب. تعمل خوارزميات الذكاء الاصطناعي العاطفية ، حتى عند تدريبها على مجموعات بيانات كبيرة ومتنوعة ، على تقليل تعبيرات الوجه والنغمات إلى عاطفة دون مراعاة السياق الاجتماعي والثقافي للشخص والموقف. بينما ، على سبيل المثال ، يمكن للخوارزميات التعرف والإبلاغ عن بكاء شخص ما ، فليس من الممكن دائمًا الاستنتاج الدقيق للسبب والمعنى الكامن وراء الدموع. وبالمثل ، فإن الوجه العابس لا يعني بالضرورة وجود شخص غاضب ، ولكن هذا هو الاستنتاج الذي ستصل إليه الخوارزمية على الأرجح. لماذا؟ نحن جميعًا نكيف عروضنا العاطفية وفقًا لمعاييرنا الاجتماعية والثقافية ، بحيث لا تكون تعبيراتنا دائمًا انعكاسًا حقيقيًا لحالاتنا الداخلية. غالبًا ما يقوم الأشخاص “بعمل عاطفي” لإخفاء مشاعرهم الحقيقية ، ومن المرجح أن تكون الطريقة التي يعبرون بها عن مشاعرهم استجابة مكتسبة ، وليست تعبيرًا تلقائيًا. على سبيل المثال ، غالبًا ما تعدل النساء عواطفهن أكثر من الرجال ، خاصة تلك التي لها قيم سلبية تُنسب إليها مثل الغضب ، لأنه يُتوقع منها ذلك.

على هذا النحو ، من المرجح أن تؤدي تقنيات الذكاء الاصطناعي التي تضع افتراضات حول الحالات العاطفية إلى تفاقم عدم المساواة بين الجنسين والعرقية في مجتمعنا. على سبيل المثال ، أظهر تقرير اليونسكو لعام 2019 التأثير الضار لجنس تقنيات الذكاء الاصطناعي ، مع أنظمة المساعد الصوتي “الأنثوية” المصممة وفقًا للقوالب النمطية للسلبية العاطفية والعبودية.

التعرف على الوجه يمكن للذكاء الاصطناعي أيضًا أن يديم عدم المساواة العرقية. أظهر تحليل من 400 لعبة من ألعاب NBA مع برنامجين شهيرين للتعرف على المشاعر ، Face و Microsoft Face API ، أنه يخصص المزيد من المشاعر السلبية في المتوسط ​​للاعبين السود ، حتى عندما كانوا يبتسمون. تؤكد هذه النتائج من جديد الأبحاث الأخرى التي تظهر أنه يتعين على الرجال السود إظهار المزيد من المشاعر الإيجابية في مكان العمل ، لأنهم يُصوَّرون على أنهم عدوانيون ومهددون.

ستصبح تقنيات الذكاء الاصطناعي العاطفية أكثر انتشارًا في عام 2023 ، ولكن إذا تركت دون منازع وغير مفحوصة ، فإنها ستعزز التحيزات المنهجية على أساس العرق والجنس ، وتكرر وتقوي عدم المساواة في العالم ، وتزيد من حرمان أولئك المهمشين بالفعل.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى