القائمة الرئيسية

الصفحات

اضرار محتوى فيسبوك السام يتسلل إلى موضيفها


تنظر محكمة في ولاية كاليفورنيا في دعوى أقامتها امرأة على شركة فيسبوك تتهمها بالتسبب لها باضطراب ما بعد الصدمة.
وتقول سيلينا سكولا المتعاقدة السابقة من شركة "بروأنليمتد" إن عملها السابق بفيسبوك كمدققة محتوى كان يتطلب منها مراجعة وحذف المحتوى المخالف لمعايير الشركة، ويشمل ذلك الكلام الذي يحض على الكراهية، وصور العنف والتسلط والعري والمحتوى الجنسي.
وقال محامي سكولا إن التعرض المستمر لهذا النوع من المحتوى شديد السمية في مكان العمل يوميا يولد اضطرابات ما بعد الصدمة للعاملين بهذا المجال، وهو يحتاج لخدمات مختصين نفسيين لمعالجة الأعراض التي تظهر قبل أن تتطور إلى صدمة.
حوالي 7500-20000 شخص يعملون بفيسبوك على تدقيق المواد وإزالتها (الأناضول)
وأضاف أن منشآت فيسبوك للأسف تفتقر لهذا النوع من الخدمات، وهو ما ينعكس بالسلب على صحة الموظفين النفسية والبدنية.
ومن جانبها، قالت فيسبوك إنها توفر الخدمات النفسية والصحية لجميع المشرفين بمرافقها، كما أنها توفر لهؤلاء التدريب المناسب لحمايتهم من أضرار التعرض لهذه المنشورات السامة.
وقد تم توثيق هذه المخاطر الصحية على العاملين بمجال تدقيق ومراجعة المحتوى من فترة طويلة، حيث سبق أن أقامموظف يعمل في مايكروسوفت برفع قضية على الشركة للسبب نفسه. 
ومن بين طلبات الدعوى المقدمة إنشاء برنامج للرصد الطبي لتسهيل تشخيص ومعالجة الذين يقومون بتدقيق المحتوى على المنصة، حيث يعمل حاليا حوالي 7500 شخص بفيسبوك على تحديد المواد غير المقبولة وإزالتها.
نتيجة بحث الصور عن ‪facebook dead‬‏
ومن المتوقع أن يصل هذا العدد إلى عشرين ألفا، حيث تعمل فيسبوك على توظيف أشخاص عن طريق شركات فيالهند برواتب سنوية تتراوح بين 3100 إلى 5500 دولار.
فهل تنجح هذه الدعوى في جعل صحة العاملين من أولويات المنصة الاجتماعية الأكبر بالعالم؟ وتغيير سياستها تجاه الموظفين؟ وإن نجحت فمن يعالج ملايين المستخدمين الذين يتعرضون لهذا المحتوى الضار حول العالم؟ 
هل اعجبك الموضوع :

تعليقات

تعليقان (2)
إرسال تعليق

إرسال تعليق

التنقل السريع