قامت شركة "إنستغرام" بإزالة 1.6 مليون صورة ومقاطع فيديو تصور الانتحار وإيذاء النفس، من منصتها، في محاولة لـ"تنظيف" سمعتها بعد سلسلة الفضائح التي طالتها مؤخرا.
وقالت شركة "فيسبوك" المالكة لـ"إنستغرام"، إن المحتوى المقلق قد تم حذفه على مدار ستة أشهر، في محاولة "للمساعدة في الحفاظ على أمان إنستغرام".
وتعرضت الشركة مرارا وتكرارا للانتقادات في الأشهر الأخيرة لاستضافتها منشورات مزعجة حول القلق والاكتئاب وإيذاء النفس والانتحار.
ويأتي ذلك بعد انتحار البريطانية، مولي راسل، البالغة من العمر 14 سنة، عام 2017، والتي يقول والداها إنها أنهت حياتها بعد مشاهدتها صورا تروج لإيذاء النفس والانتحار على "إنستغرام" و"Pinterest".
وأوضحت شركة "فيسبوك" جهودها لمنع هذا المحتوى من الوصول إلى "إنستغرام" في تقرير نُشر الأربعاء 13 نوفمبر، والذي كشف عن عدد المشاركات والحسابات التي اتخذها عملاق وسائل التواصل الاجتماعي في الفترة ما بين مارس وأكتوبر من هذا العام.
وقال جاي روزن، نائب رئيس شؤون النزاهة على "فيسبوك": "لأول مرة نشارك البيانات حول كيفية قيامنا بتنفيذ سياساتنا على إنستغرام".
وتستخدم "إنستغرام" و"فيسبوك" مزيجا من الذكاء الصناعي والمشرفين من البشر لتصفية المحتوى المثير للقلق.
وقد يتضمن هذا المحتوى الصور التي يتم تحميلها من قبل المستخدمين بعد لحظات من إيذاء النفس أو تقديم إرشادات مفصلة حول كيفية إنهاء حياتك.
وقالت "فيسبوك" إنها أزالت 835 ألف محتوى يتضمن إيذاء الذات على "إنستغرام" بين أبريل ويونيو. كما حذفت 845 ألف محتوى آخر في الفترة ما بين يوليو وسبتمبر، وأشارت الشركة إلى أن نحو 80% من المحتوى، حُذف "بشكل استباقي"، ما يعني أن الروبوتات المسؤولة رصدت هذا المحتوى قبل أن يقوم أحدهم بالإبلاغ عنه.
وفي المجموع، تمت إزالة 2.5 مليون صورة ومقاطع فيديو وغيرها من المشاركات المتعلقة بإيذاء النفس أو الانتحار من الموقع منذ يوليو.
وفي الفترة نفسها، تم حظر 11.6 مليون من المحتوى المتعلق بصور ومقاطع الفيديو الخاصة بالإساءة الجنسية للأطفال من الموقع.
[email protected]