توتير تشرح بالتفصيل خطواتها للحد من المحتوى المُزعج والحفاظ على سلامة مُجتمعها
بعد أسبوع تقريبًا من تغريدات جاك دورسي Jack Dorsey مؤسس تويتر وردّه الحازم على قضيّة المحتوى المُزعج والإساءة لبعض المستخدمين، أصدرت شبكة تويتر تقويم كامل تشرح فيه خطواتها المُقبلة للحد من المحتوى المُزعج لجعل تويتر مُجتمع أفضل لجميع المُستخدمين.
وأكّدت الشركة أن صفحة قواعد الاستخدام سيتم تحديثها باستمرار لتكون المرجع الشامل للجميع للتأكّد من شروط الاستخدام والتبليغ عن أي شيء خارج عنها. كما أشارت إلى حساب حماية الحسابات سيقوم بنشر أجزاء من تلك الشروط باستمرار.
ومن ناحية الخطوات الفعلية، فالشركة ذكرت أنها وابتداءً من 27 أكتوبر/تشرين الأول الجاري ستتعامل مع المحتوى الغير لائق بفكر جديد لحماية المُتضرّرين، فأي صور تُنشر تستفز أحد المُستخدمين وتم التقاطها دون علمهم سيتم حذفها بشكل فوري مع تعريض الناشر الأصلي لحظر فوري. هذا بدوره يفتح المجال أمام الخطوة الثانية المُتعلّقة بتقديم الاعتراض على حظر الحساب، فالمستخدم وبعد تقديم اعتراضه ستقوم الشبكة بشرح سبب الحظر بالتفصيل في حالة كان بالفعل مُذنب وخالف شروط الاستخدام.
وتنوي شبكة تويتر في نوفمبر/تشرين الثاني البدء في شرح الأسباب عند القيام بإيقاف أي حساب مع تحديد الفقرات التي قام المُستخدم بمخالفتها. كما أنها ستقوم بإرسال رسالة بريدية وتنبيه على التطبيق للإشارة إلى أن حسابه تعرّض للإيقاف. وإضافة لما سبق، سيتم التعامل مع الصور الشخصية وأسماء الحسابات بطريقة جديدة، فأي حساب يُشير إلى الكراهية أو العداوة سيتم حظره وإزالة صورته الشخصية إذا كانت تحتوي على رموز أو دلالات لذلك المعنى.
وسوف تُكثّف جهود مُهندسي الشبكة للحد من المحتوى الإباحي والغير لائق من خلال استعراض المحتوى الممنوع ليتجنّب البقيّة نشره. مُضيفة أن أي شخص يقوم بإرسال تغريدات مُزعجة باستمرار سيتم إيقاف حسابه أو حظره بالكامل. وأخيرًا في نوفمبر، تنوي الشبكة اعتماد نظام جديد لتقييم الاعتراضات والتبليغات الواردة لضمان سلامة الجميع.
في ديسمبر/كانون الأول، تنوي الشبكة الحد من المحتوى العدواني الذي يؤدي لإصابات جسدية أو للموت، وهذا من خلال النظر للمحتوى من هذا النوع بنظرة أوسع لتشمل حالات أكثر. أما التبليغات الواردة عن طريق طرف ثالث، أي أن يقوم مستخدم بالتبليغ عن حالة تخص أحد أصدقائه، فسيتم بالتنسيق مع صاحب الحساب الأصلي لضمان أن التبليغ حقيقي مع تنبيهه كذلك بشكل فوري. وسوف تستمر بتطوير هذه الخاصيّة حتى يناير/كانون الثاني 2018 أملًا في رفع مستوى الأمان داخل الشبكة.
After almost a week of Twitter founder Jack Dorsey's blunt comments on the contentious and abusive content of some users, Twitter released a full calendar explaining its next steps to reducing spam content to make Twitter a better community for all users.
The company confirmed that the usage rules page will be constantly updated to be a comprehensive reference for all to check the terms of use and report anything outside of them. As indicated by the Account Protection Account, parts of those terms will be continuously published.
In terms of actual steps, the company said that as of October 27 it would deal with inappropriate content with a new idea to protect the affected. Any images posted that provoked a user and were taken without their knowledge would be deleted immediately, exposing the original publisher to an immediate ban. This, in turn, opens the way for the second step to challenge the account ban. The user, after submitting his objection, will explain the reason for the ban in detail if he is already guilty and violated the terms of use.
In November, Twitter plans to begin explaining the reasons for stopping any account and identifying the user's violations. It will also send an email and alert the application to indicate that its account is on hold. In addition, personal photos and account names will be treated in a new way. Any account of hate or enmity will be blocked and their personal image removed if they contain symbols or connotations of that meaning.
Network engineers will intensify efforts to reduce pornography and inappropriate content by reviewing prohibited content to prevent the rest from being published. Adding that anyone who regularly sends annoying tweetings will be turned off or blocked entirely. Finally, in November, the Network intends to adopt a new system to evaluate objections and communications received to ensure the safety of all.
In December, the network intends to limit aggressive content that leads to bodily injury or death by looking at content more broadly to include more cases. Third-party notifications, that is, a user reporting a case to one of his friends, will be coordinated with the original account holder to ensure that the notification is true and alerted immediately as well. It will continue to develop this feature until January 2018 in the hope of increasing network security.