تكنلوجيا تقتحم الخصوصية : مخاوف من استخدام زوم لرصد انفعالات البشر

وكالات - الأمة برس
2022-05-17

ذكر تقرير تكنولوجي الشهر الماضي أن زوم تعمل من مقرها الموجود في كاليفورنيا على تطوير مثل هذه الأدوات (موقع الشركة)لوس أنجلس - حثت مجموعات حقوق الإنسان شركة زوم ومنصتها المعتمدة للاجتماعات عن بعد على إلغاء الأبحاث التي تجريها حول دمج أدوات التعرف على المشاعر في تطبيقاتها. وقالت إن هذه التكنولوجيا يمكن أن تستخدم لانتهاك خصوصية المستخدمين وتساهم في ممارسات تتصف بالعنصرية.

وذكر تقرير تكنولوجي الشهر الماضي أن زوم تعمل من مقرها الموجود في كاليفورنيا على تطوير مثل هذه الأدوات، والتي يمكن أن تستخدم الذكاء الاصطناعي لفحص تعابير الوجه ونبرة الصوت لاستخلاص استنتاجات حول مزاج المستخدمين.

وفي رسالة مشتركة أُرسلت إلى الرئيس التنفيذي لشركة زوم إريك يوان الأربعاء، قالت أكثر من 25 منظمة حقوقية، بما في ذلك أكسس ناو والاتحاد الأميركي للحريات المدنية ورابطة العدالة الإسلامية، إن التكنولوجيا غير دقيقة ويمكن أن تهدد الحقوق الأساسية للبشر.

وقالت كيتلين سيلي جورج مديرة الحملات والعمليات في منظمة “فايت فور ذا فيوتشر”، وهي مجموعة حقوق رقمية “إذا تقدمت زوم في هذه الخطط، فسوف تعزز هذه الميزة ضد الأشخاص من أعراق معينة والأشخاص ذوي الإعاقة، من خلال برمجة صور نمطية في الملايين من الأجهزة”.

واعتبرت أن “هذه التكنولوجيا يمكن أن تتخذ استخدامات أكثر شرا وعقابا بالإضافة إلى استغلال المستخدمين لتحقيق الربح والسماح للشركات بالاستفادة منهم”.

ولم ترد زوم على الفور على طلب للتعليق.

أدوات التعرف على المشاعر أصبحت شائعة بشكل متزايد على الرغم من تساؤلات
حول دقتها وانعكاساتها على حقوق الإنسان

وظهرت زوم لاتصالات الفيديو كمنصة رئيسية لمؤتمرات الفيديو الرقمية في جميع أنحاء العالم خلال عمليات الإغلاق التي صاحبت وباء كورونا مع تحول التعليم والعمل عبر الإنترنت، حيث أبلغت عن أكثر من 200 مليون مستخدم يوميا في ذروة الوباء في 2020.

ونجحت الشركة بالفعل في بناء أدوات تهدف إلى تحليل المشاعر في الاجتماعات بناء على النصوص المرافقة لمكالمات الفيديو، ويقول التقرير إنها تخطط لتطوير المزيد من أدوات قراءة المشاعر المتقدمة عبر منتجاتها.

وفي منشور بالمدونة يصف تقنية تحليل المشاعر، قالت زوم إن أدواتها يمكنها قياس “الإيقاع والنغمة العاطفية للمحادثات” من أجل مساعدة موظفي المبيعات على تحسين عروضهم. لكن رسالة الجماعات الحقوقية قالت إن طرح تحليل التعرف على المشاعر لمكالمات الفيديو من شأنه أن ينتهك حقوق المستخدمين.

وجاء في الرسالة أن “هذا الانتقال إلى مستخدمي التنقيب عن نقاط البيانات العاطفية بناء على الفكرة الخاطئة بأن الذكاء الاصطناعي يمكنه تتبع المشاعر الإنسانية وتحليلها يعد انتهاكا للخصوصية وحقوق الإنسان”. وأضافت أن “زوم مطالبة بوقف الخطط لتعزيز هذه الميزة”.

وقد أصبحت أدوات التعرف على المشاعر شائعة بشكل متزايد، على الرغم من التساؤلات حول دقتها وانعكاساتها على حقوق الإنسان. وغالبا ما يشير منتقدو هذه التقنية إلى أوجه تشابه مع تقنيات التعرف على الوجه، والتي ثبت أن لديها معدلات خطأ عالية على الوجوه غير البيضاء، أدت إلى اعتقالات خاطئة.

ووصفت إيشا بهانداري نائبة مدير مشروع الخصوصية والتكنولوجيا بالاتحاد الأميركي للحريات المدنية تقنية تحليل العواطف باستخدام الذكاء الاصطناعي بأنها “علم غير مطلوب”. وقالت في تعليقات عبر البريد الإلكتروني “لا يوجد سبب وجيه لدراسة تعابير وجه المستخدمين ونبرات أصواتهم وحركات أعينهم لتطوير هذه التكنولوجيا المخيفة”.







كاريكاتير

إستطلاعات الرأي