recent
أخبار ساخنة

الفيسبوك يطلب من المستخدمين للصور عارية في مشروع لمكافحة الانتقام الاباحية

Home
الفيسبوك يطلب من المستخدمين للصور عارية في مشروع لمكافحة الانتقام الاباحية


الفيسبوك يطلب من المستخدمين أن ترسل الشركة صورهم عارية في محاولة لمعالجة الانتقام الاباحية ، في محاولة لإعطاء بعض السيطرة مرة أخرى لضحايا هذا النوع من سوء المعاملة.
الأفراد الذين شاركوا صور حميمة أو عارية أو جنسية مع شركاء ويخشون من أن الشريك (أو الشريك السابق) قد يوزعونها دون موافقتهم يمكن استخدام رسول لإرسال الصور إلى "تجزئة". وهذا يعني أن الشركة تحول الصورة إلى بصمة رقمية فريدة من نوعها والتي يمكن استخدامها لتحديد ومنع أي محاولات لإعادة تحميل نفس الصورة.
ويختبر فاسيبوك هذه التكنولوجيا في أستراليا بالشراكة مع وكالة حكومية ترأسها مفوضة السلامة الإلكترونية جوليا إنمان غرانتالتي قالت ل أبك إنها ستسمح لضحايا "الاعتداء على الصور" باتخاذ إجراءات قبل نشر الصور على فاسيبوك، إينستاجرام أو رسول.
وقالت في مقابلة مع هيئة الاذاعة الاسترالية "نرى العديد من السيناريوهات التي قد يتم فيها التقاط صور او مقاطع فيديو بشكل متزامن في مرحلة ما، لكن لم يكن هناك اي نوع من الموافقة على ارسال الصور او مقاطع الفيديو على نطاق واسع".
وقال كاري غولدبرغ، وهو محامي مقره نيويورك متخصص في الخصوصية الجنسية: "نحن سعداء بأن الفيسبوك يساعد على حل هذه المشكلة - واحدة تواجه ليس فقط من قبل ضحايا الانتقام الفعلي الاباحية ولكن أيضا الأفراد الذين هم قلق من وشك الوقوع ضحايا.
"مع المليارات من المستخدمين، الفيسبوك هو مكان واحد حيث العديد من الجناة العدوان لأنها يمكن أن تزيد من الضرر عن طريق بث الاباحية غير الحسية إلى أولئك الأكثر قريبة من الضحية. لذلك هذا تأثير. "
في الطيار الأسترالي، يجب على المستخدمين أولا إكمال نموذج عبر الإنترنت على موقع مفوض السلامة الإلكترونية على الويب يحدد مخاوفهم. ثم يطلب منهم إرسال الصور التي هم قلقون بشأن أنفسهم على رسول بينما مكتب مفوض السلامة الإلكترونية بإعلام الفيسبوك من تقديمهم. وبمجرد أن يحصل فاسيبوك على هذا الإشعار، سيقوم محلل عمليات المجتمع بالوصول إلى الصورة والتجزئة لمنع حدوث حالات مستقبلية من تحميلها أو مشاركتها.
سوف الفيسبوك تخزين هذه الصور لفترة قصيرة من الزمن قبل حذفها للتأكد من أنها تنفذ السياسة بشكل صحيح، وقالت الشركة.
ما يقرب من 4٪ من مستخدمي الإنترنت في الولايات المتحدة كانوا ضحايا للانتقام الاباحية، وفقا لتقرير عام 2016 من معهد بحوث البيانات والمجتمع . وترتفع النسبة إلى 10 في المائة عند التعامل مع النساء دون سن الثلاثين.
هذا يبني على الأدوات الموجودة الفيسبوك لديها للتعامل مع الانتقام الاباحية. في أبريل / نيسان، أصدر موقع التواصل الاجتماعي أدوات إبلاغ للسماح للمستخدمين بالإبلاغ عن الصور الحميمة التي تم نشرها دون موافقتهم على "الممثلين المدربين تدريبا خاصا" من فريق عمليات المجتمع المحلي في الموقع "الذين يقومون بمراجعة الصورة وإزالتها إذا كانت تنتهك معايير مجتمع [فاسيبوك]". بعد إزالة الصورة، يتم استخدام تقنية مطابقة الصور لضمان عدم تحميل الصورة مرة أخرى.
تستخدم فاسيبوك وشركات التكنولوجيا الأخرى هذا النوع من تكنولوجيا مطابقة الصور حيث يتم "تجزئة" الصور لمعالجة أنواع أخرى من المحتوى بما في ذلك الاعتداء الجنسي على الأطفال والصور المتطرفة .
وقد تم تطوير هذه التقنية لأول مرة في عام 2009 من قبل مايكروسوفت، وتعمل بشكل وثيق مع دارتموث والمركز الوطني للأطفال المفقودين والمستغلين لتضييق على نفس الصور من الأطفال المعتدى عليهم جنسيا يتم تعميم مرارا وتكرارا على شبكة الإنترنت. كانت هناك تكنولوجيا يمكن أن تجد مباريات كاملة من الصور، ولكن يمكن المسيئين الحصول على حول هذا عن طريق تغيير طفيف في الملفات - إما عن طريق تغيير حجمها أو إضافة علامة صغيرة.
فوتودنا التكنولوجيا "هاش" مطابقة جعلت من الممكن التعرف على الصور غير المشروعة المعروفة حتى لو كان شخص ما قد غيرها. الفيسبوك، تويتر وجوجل كل استخدام نفس قاعدة البيانات التجزئة لتحديد وإزالة الصور غير المشروعة.
هاني فريد، أستاذ علوم الكمبيوتر في دارتموث الذي ساعد على تطوير فوتودنا، وصف الطيار الفيسبوك بأنها "فكرة رائعة".
"إن نشر هذه التكنولوجيا لن يمنع أي شخص من مشاركة الصور خارج النظام الإيكولوجي الفيسبوك، لذلك يجب علينا تشجيع جميع المنصات على الانترنت للمشاركة في هذا البرنامج، كما نفعل مع فوتودنا"، وقال.
وقالت متحدثة باسم فيسبوك ان الشركة تبحث عن شركاء وشركاء اضافيين.

Facebook asks users to send their company naked pictures to try to address the porn revenge, try to give some control back to victims of this kind of abuse.

Individuals who have shared intimate, nude or sexual images with partners and fear that the partner (or former partner) may distribute them without their consent can use Messenger to send images to a "fragmentation". This means that the company transforms the image into a unique digital fingerprint which can be used to identify and prevent any attempts to reload the same image.

Facebook is testing the technology in Australia in partnership with a government agency led by Commissioner Julia Inman Grant, who told APEC that she would allow victims of "photo abuse" to take action before posting photos on Facebook, Instagram or Messenger.

"We see many scenarios in which photos or videos may be taken simultaneously at some point, but there has not been any kind of consent to send pictures or videos on a large scale," she said in an interview with Australian Broadcasting Corporation.

"We are happy that Facebook helps solve this problem - one is faced not only by victims of actual vengeance but also by individuals who are concerned about to become victims," ​​said Carrie Goldberg, a New York-based lawyer specializing in sexual privacy.

"With billions of users, Facebook is one place where many perpetrators of aggression are able to increase the damage by broadcasting non-sensual porn to those closest to the victim.

In the Australian pilot, users must first complete an online form on the website of the E-Safety Commissioner who identifies their concerns. They are then asked to send pictures that they are concerned about themselves on a messenger while the Office of the Electronic Safety Commissioner informs Facebook of their submission. Once Facebook receives this notification, the Community Operations Analyst will access the image and retail to prevent future instances of uploading or sharing.

Facebook will store these photos for a short period of time before deleting them to make sure they implement the policy correctly, the company said.

Nearly 4% of Internet users in the United States were victims of pornographic retaliation, according to a 2016 report from the Institute of Data Research and Society. The ratio rises to 10 per cent when dealing with women under the age of 30.

This builds on existing Facebook tools to have to deal with porn revenge. In April, the social networking site released reporting tools to allow users to report on intimate images that were posted without their consent to "specially trained representatives" from the on-site community operations team "who review and remove the image if they violate the community standards [ "He said. After removing the image, the image matching technology is used to ensure that the image is not loaded again.

Facebook and other technology companies use this type of image matching technology where images are "fragmented" to address other types of content including sexual abuse of children and extreme images.

The technology was first developed in 2009 by Microsoft and works closely with Dartmouth and the National Center for Missing and Exploited Children to narrow down on the same images of sexually abused children that are circulating repeatedly on the Internet. There was technology that could find full games of images, but the offender could get around this by changing the files slightly - either by resizing or adding a small tag.

Photodna technology "hash" matching made it possible to identify illegal images known even if someone else has. Facebook, Twitter and Google all use the same retail database to identify and remove illegal images.

Hani Farid, a computer science professor at Dartmouth who helped develop Futodna, described the pilot as a "fantastic idea".

"The deployment of this technology will not prevent anyone from sharing photos outside the Facebook ecosystem, so we must encourage all platforms online to participate in this program, as we do with Photodna," he said.

A spokeswoman for Facebook said the company was looking for additional partners and partners.
google-playkhamsatmostaqltradent