وجدت مراجعة BSR أن Facebook كان يؤذي الفلسطينيين في حرب إسرائيل وغزة.

وجدت مراجعة BSR أن Facebook كان يؤذي الفلسطينيين في حرب إسرائيل وغزة.

في العام الماضي ، خلال الحرب التي استمرت أسبوعين بين إسرائيل وحركة حماس الفلسطينية المسلحة ، وجدت مراجعة مستقلة للتعامل مع ميتا للمحتوى عبر الإنترنت أن عملاق وسائل التواصل الاجتماعي حذف المحتوى عن طريق الخطأ وحظر المستخدمين الناطقين باللغة العربية. واتضح أنه كان ينفي المستخدمون الفلسطينيون حريتهم في التعبير عن طريق معاقبتهم. أثقل من الناطق بالعبرية.

يؤكد التقرير الصادر عن شركة الاستشارات Business for Social Responsibility قدرة الشركة على مراقبة الساحات العامة العالمية وتحقيق التوازن بين حرية التعبير واحتمال حدوث ضرر في ظل وضع دولي متوتر ، وهو اتهام آخر. وهي أيضًا واحدة من أولى الحسابات المطلعة على فشل المنصات الاجتماعية في زمن الحرب. كما أثار ذلك إحباط النشطاء الفلسطينيين من أن الرقابة على الإنترنت كانت تؤثر عليهم ، كما ذكرت صحيفة واشنطن بوست وغيرها من المنافذ الإخبارية في ذلك الوقت.

“تقرير BSR يؤكد أن الرقابة الفوقية قد انتهكت. #فلسطيني وقالت جماعة الحقوق الرقمية الفلسطينية حملة ، المركز العربي لتنمية وسائل التواصل الاجتماعي ، في بيان على تويتر.

اندلعت حرب مايو 2021 في البداية بسبب نزاع حول قضية وشيكة أمام المحكمة العليا الإسرائيلية حول ما إذا كان للمستوطنين الحق في إجلاء العائلات الفلسطينية من منازلهم في مناطق النزاع في القدس .. حقل أرز. وسط احتجاجات متوترة على الدعوى ، اقتحمت الشرطة الإسرائيلية المسجد الأقصى ، أحد أقدس الأماكن الإسلامية. وردت حماس التي تحكم غزة بإطلاق صواريخ على إسرائيل التي ردت بحملة قصف استمرت 11 يوما أسفرت عن مقتل أكثر من 200 فلسطيني. كما قتل عشرات الإسرائيليين قبل أن يدعو الجانبان إلى وقف إطلاق النار.

خلال الحرب ، تم الإشادة بـ Facebook والمنصات الاجتماعية الأخرى لدورها المركزي في مشاركة القصص مباشرة من مشهد الصراع سريع الحركة. ونشر فلسطينيون صورا لمنازل وتوابيت أطفال مغطاة بالركام خلال وابل من القصف ، مما أدى إلى احتجاجات عالمية لإنهاء الصراع.

ولكن سرعان ما ظهرت مشاكل تتعلق بالإشراف على المحتوى. في وقت مبكر من الاحتجاجات ، بدأ Instagram المملوك لميتا ، إلى جانب WhatsApp و Facebook ، في تقييد المحتوى الذي يحتوي على هاشتاج #Aqsa.الشركة أولا مدان مشاكل مع أخطاء النشر الآلي للبرامج. بعد أن نشرت The Post مقالاً يسلط الضوء على المشكلة ، أضاف متحدث باسم Meta أن الخلل نتج عن “خطأ بشري” ، لكنه لم يقدم مزيدًا من المعلومات.

يلقي تقرير BSR ضوءًا جديدًا على القضية. تمت إضافة هاشتاغ #Aqsa عن طريق الخطأ إلى قائمة المصطلحات المتعلقة بالإرهاب من قبل موظف يعمل لدى مقاول إدارة محتوى تابع لجهة خارجية للشركة ، وفقًا للتقارير. “لم يعد يظهر #Aqsa في نتائج البحث نتيجة خطأ الانسحاب من قائمة المصطلحات الأخيرة لوزارة الخزانة الأمريكية ، بما في ذلك اللواء “، يلاحظ التقرير. كتائب شهداء الأقصى هي جماعة إرهابية معروفة (ذكرت BuzzFeed News عن مناقشة داخلية للتسميات الخاطئة للإرهاب في ذلك الوقت).

مع انتشار العنف في إسرائيل وغزة على وسائل التواصل الاجتماعي ، يعرب النشطاء عن قلقهم بشأن التدخل التكنولوجي

ووجد التقرير ، الذي نظر فقط في الفترة التي سبقت حرب 2021 وبعدها ، أن الصحفيين والصحفيين الفلسطينيين قالوا إن فيسبوك وإنستغرام يبدو أنهما يفرضان رقابة على المنشورات بشكل متكرر أكثر من تلك الخاصة بالمتحدثين بالعبرية. في السكان الناطقين بالعبرية والعربية في الأراضي الإسرائيلية والفلسطينية ، فيسبوك فلسطيني أكثر من الإسرائيليين ، واكتشفت أنهم كانوا يزيلون أو يضيفون ضربات إلى المزيد من المنشورات من. أظهرت البيانات الداخلية التي راجعتها BSR أيضًا أن البرنامج يقوم بانتظام بوضع علامة على المحتوى العربي بسبب انتهاكات محتملة للقواعد بمعدل أعلى من المحتوى العبري.

وأشار التقرير إلى أن نظام خطاب الكراهية القائم على الذكاء الاصطناعي في ميتا مسؤول على الأرجح عن استخدام قائمة من المصطلحات المرتبطة بالمنظمات الإرهابية الأجنبية. العديد منهم مجموعات من هذه المنطقة. لذلك ، من المرجح أن يتم تمييز المحتوى الخاص بهم على أنه يحتمل أن يكون مرتبطًا بالجماعات الإرهابية.

بالإضافة إلى ذلك ، وفقًا للتقرير ، قامت Meta ببناء برنامج كشف للتعرف بشكل استباقي على خطاب الكراهية والعداء باللغة العربية ، ولكن ليس باللغة العبرية.

وجد التقرير أيضًا نقصًا في مديري المحتوى باللغتين العربية والعبرية ، لذلك يمكن للشركة منع المحتوى الذي يحتمل أن يخالف القواعد من عدم التحدث أو فهم اللغة ، وخاصة لهجات اللغة العربية.كان يقترح أنه كان يوجه إلى المراجعين. نتج عن هذا المزيد من الأخطاء.

أعطى تقرير بتكليف من Facebook بناءً على توصيات مجلس إشراف مستقل للشركة 21 توصية. يتضمن ذلك تغييرات في سياستنا بشأن تحديد المنظمات والأفراد الخطرين ، وشفافية أكبر للمستخدمين عند معاقبة المنشورات ، وإعادة تعيين موارد الإشراف على المحتوى باللغتين العربية والعربية على أساس “تكوين السوق” ، بما في ذلك توجيه انتهاكات المحتوى العربي المحتملة إلى الأشخاص الذين يتحدثون نفس اللغة . اللهجات العربية في منشورات التواصل الاجتماعي.

كرد. وقالت ميراندا سيسونز ، مديرة حقوق الإنسان في ميتا ، إن الشركة نفذت بالكامل 10 توصيات ونفذت أربع توصيات بشكل جزئي. وقامت الشركة “بتقييم جدوى” ستة أخرى ، وقالت إنها “لن تتخذ أي إجراء آخر” بشأن أحدها.

قال سيسونز: “العديد من هذه التوصيات ، كما أوضحت BSR ، لا يمكن إصلاحها بين عشية وضحاها”. “لقد أجرينا بالفعل تغييرات كبيرة نتيجة لهذا التمرين ، ولكن هذه العملية ستستغرق وقتًا. ما هي أفضل طريقة للتعامل مع بعض هذه التوصيات وما إذا كانت مجدية من الناحية الفنية؟ وتتضمن أيضًا وقتًا لفهم

كيف عزز Facebook خطاب الكراهية والعنف في الهند بينما يتجاهل بقية العالم

وقال المركز العربي لتطوير مواقع التواصل الاجتماعي (حملة) ، في بيان ، إن التقرير وصف خطأً التحيز من وراء غير مقصود.

سنوات من الرقابة المستمرة [Palestinian] على الرغم من تقاريرنا ومناقشاتنا حول هذا التحيز ، فإننا نؤكد أن هذه رقابة متعمدة ما لم يعد Meta بإنهائها.