تزييف عميق

تقنية تقوم على دمجِ عددٍ من الصور ومقاطع الفيديو لشخصية ما من أجل إنتاج مقطع فيديو جديد قد يبدو للوهلة الأولى أنه حقيقي لكنه في الواقع مزيّف

التزييف العميق (بالإنجليزية: Deepfake)[a] هي تقنية تقومُ على صنعِ فيديوهات مزيّفة عبر برامج الحاسوب من خِلال تعلّم الذكاء الاصطناعي. تقومُ هذهِ التقنيّة على محاولة دمجِ عددٍ من الصور ومقاطع الفيديو لشخصيّةٍ ما من أجلِ إنتاج مقطع فيديو جديد – باستخدام تقنية التعلم الآلي – قد يبدو للوهلة الأولى أنه حقيقي لكنّه في واقع الأمر مُزيّف.[2]

استُعمِلت هذه التقنيّة في إنشاءِ مقاطع فيديو إباحيّة مزيفة لعددٍ من المشاهير كما استُخدمت في أحيان أخرى لخلق أخبار كاذبة ومُحاولة خدع القُرّاء والانتقام الاباحي.[3][4]

التاريخعدل

لقد حدث تطويرٌ كبيرٌ لهذه التقنيّة على مستويينِ؛ الأول أكاديمي وقانوني نوعًا ما والثاني غير قانوني حيثُ يقومُ فيهِ مبرمجون هواة بعمليات التطوير لا غير.

البحث الأكاديميعدل

يتمّ استغلال هذه التقنيّة في المجال الأكاديمي في بضعِ مجالات على رأسها مجال الرؤية الحاسوبيّة وهو حقل فرعي لعلوم الكمبيوتر يستند غالبًا إلى الذكاء الاصطناعي بحيثُ يركز على معالجة الكمبيوتر للصور ومقاطع الفيديو الرقمية بشكلٍ آلي. يُعدّ برنامج فيديو ريرايت (بالإنجليزية: Video Rewrite) الذي صدرَ في عام 1997 أوّل معالم هذه القنية حيثُ قام بتعديل فيديو لشخصٍ يتحدث في موضوع مُعيّن إلى فيديو لنفسِ الشخص يتحدث في موضوع آخر من خِلال استغلال الكلمات التي نطقها ذاك الشخص ومُحاولة ترتيبها في سياقٍ مختلف لتكوين جملٍ جديدة لم يقلها الشخص في الفيديو أصلًا.[5]

ركّزت المشاريع الأكاديمية المُعاصرة على إنشاء مقاطع فيديو أكثر واقعية وعلى جعل التقنية أكثر بساطة وأكثر سهولة. بحلول عام 2017؛ ظهر للوجود برنامجُ سانثيسيزينغ أوباما (بالإنجليزية: Synthesizing Obama) الذي نشرَ فيديو للرئيس الأمريكي السابق باراك أوباما وهوَ يتكلّم بصوتٍ عالٍ حول هذه التقنيّة مُحاولًا شرحَ مخاطرها وهو ما لم يفعلهُ الرئيس الأمريكي أصلًا بل إنّ البرنامج قامَ بجمعِ عددٍ من فيديوهات الرئيس ثمّ حاولَ استخراج الكلمات التي يحتاجها – والتي نُطقت في سياقٍ مختلفٍ – من أجلِ استعمالها في الفيديو الوهميّ الجديد.[6] عَرفت هذه التقنية تطورًا إضافيًا بعد ظهور برنامج فايس تو فايس (بالإنجليزية: Face2Face) الذي صدرَ عام 2016 والذي يقومُ بمحاكاة تعبيرات وجه شخص في فيديو قديم مُحولًا إيّاها إلى تعبيرات جديدة حسبَ رغبة المستخدم.[7]

تطوير الهواةعدل

نشأَ مصطلح التزييف العميق في نهاية عام 2017 من أحدِ مستخدمي ريديت والذي سمّى نفسه ديب فايكس (بالإنجليزية: deepfakes).[8] قام هذا المستخدم وآخرون بمشاركة فيديوهات إباحية مزيّفة كانوا قد صنعوها لمشاهير؛[8] حيثُ قاموا مثلًا بتحميل فيديوهات يظهرَ فيها ممثلون إباحيون حقيقيون ثمّ استبدلوا وجهَ الممثل الإباحي بوجهِ ممثل أمريكي مشهور. حقّقت تلك الفيديوهات نسب مشاهدات عاليّة كما تمّ تداولها على نطاقٍ كبيرٍ في مواقع التواصل كونها «مُتقنَة نوعًا ما» ومن الصعبِ معرفة ما إذا كانت مزيّفة أم لا وخاصّة الفيديو المزيّف للممثل الأمريكي نيكولاس كيج والذي كان «واقعيًا» وصدقهُ الكثير.[9] في كانون الأول/ديسمبر 2017؛ نشرت سامانثا كول مقالةً حول موضوع التزييف العَميق في مجلّة فيس ولفتت الانتباه فيها إلى الفيديوهات التي يتمّ مشاركتها على مواقع التواصل وكيفَ تُساهم في ترويج الأخبار الكاذبة أو المُزيّفة.[10]

بحلول شباط/فبراير 2018 وبعد أن كَثُر الحديث حول هذه التقنيّة قام موقع ريديت بحظر المُستخدم ديب فايكس (بالإنجليزية: deepfakes) بدعوى نشرهِ لمقاطع فيديو إباحية مزيّفة كما قامت باقي المواقع بحظرِ كل من يروّج لهذهِ التقنيّة بما في ذلك موقع التواصل الاجتماعي المُصغّر تويتر وكذا موقع بورن هاب الإباحي.[11] ومع ذلك؛ لا تزال هناك مجتمعات أخرى على الإنترنت – بما في ذلك مجتمعات ريديت – تعملُ على مشاركة الفيديوهات المصنوعة بهذهِ التقنيّة بل يقومُ بعضٌ من مستخدمي ريديت بنشرِ فيديوهات وصور مزيّفة لعددٍ من المشاهير والسياسيين ولا تمّت للحقيقة بصلة،[12] في حين تُواصل المجتمعات الأخرى على الإنترنت مشاركة هذهِ المواد بعلمٍ أو بدونِ علم.[11]

الاستخدامعدل

في المجال الإباحيعدل

ظهرت المواد الإباحية المُنتَجة عبر تقنيّة التزييف العميق على الإنترنت في عام 2017 ولا سيما على موقع ريديت،[13] لكنّ هذا الأخير قام بحظرها ونفس الأمر فعلهُ موقعي تويتر وبورن هاب.[14][15][16] في خريف عام 2017؛ نشر مستخدم مجهولٌ على موقع ريديت العديد من مقاطع الفيديو الإباحية المُنتجة بتلك التقنيّة وتُعدّ الممثلة ديزي ريدلي أوّل من لفتت الانتباه إلى حساب ذاك المستخدم وما يقومُ به فتبيّن فيما بعد أنّه ذو خِبرة في مجال صناعة مثل هذه الفيديوهات حيثُ كان قد نشرَ مقطعًا إباحيًا مزيفًا تظهرُ فيه عارضة الأزياء الإسرائيلية غال غادوت وهي تُمارس الجنس مع شقيق زوجها كما نشرَ فيديوهات إباحية أخرى مزيّفة لكل من إيما واتسون، كيتي بيري، تايلور سويفت وَسكارليت جوهانسون. كلّ المشاهد لم تكن حقيقية بالطبع؛ حيثُ تمّ إنشاؤها عبر الذكاء الاصطناعي وقد تمّ اكتشافها بعد وقتٍ قصيرٍ من قِبل خُبراء في مجال علوم الكمبيوتر.

مع مرور الوقت؛ قامَ مجتمع ريديت بإصلاح العديد من الأخطاء في مقاطع الفيديو المزيفة ما جعلَ من الصعبِ اكتشافها أو التمييز بينها وبينَ المحتوى الحقيقي. في المُقابل حاول آخرون تطوير برامج تقومُ بجمعِ الفيديوهات والصور الحقيقيّة على النت وتخزنها كبيانات من أجل التدريب على التمييز بين المحتوى الوهمي والمحتوى الحقيقي. جديرٌ بالذكر هنا أنّ القسم الفني والعلمي في مجال فيس هو أول من أبلغَ عن هذه الظاهرة لأوّل مرة في كانون الأول/ديسمبر 2017 فقامت باقي وسائل الإعلام الأخرى بتغطية الموضوع.[17][18]

تحدثت سكارليت جوهانسون علنًا عن موضوع التزييف العميق خِلال مقابلة لها معَ واشنطن بوست في كانون الأول/ديسمبر من عام 2018 حيثُ أعربت عن قلقها إزاء هذه «الظاهرة» ووصفت عالمَ الإنترنت بأنهُ «ثقبٌ كبيرٌ من الظلام يأكل نفسه». ومع ذلك؛ قالت سكارليت أيضًا بأنها لن تحاول إزالة أي من الفيديوهات خاصتها المُنشئة بهذه التقنيّة نظرًا لاعتقادها أنها لا تؤثر على صورتها العامة وأن القوانين في مختلف البلدان وطبيعة ثقافة الإنترنت تَجعل أيّ محاولة لإزالة هذا النوع من المُحتوى «قضية فاشلة»؛ كما استرسلت: «نحنُ معشر المشاهير نحظى بحمايةٍ بسببِ شهرتنا لكنّ قضية التزييف العميق قد تؤثر وبشكلٍ كبيرٍ على النساء ذوات الشهرة الأقل والذي يمكن أن تتعرض سمعتهنّ للتضرر في حالة ما تمّ تصويرهنّ زيفًا في فيديوهات إباحية أو شيء من هذا القَبيل.[19]»

في المجال السياسيعدل

استُخدمت تقنيّة التزييف العميق لتشويه صورة بعض السياسيين المعروفين فعلى سبيل المثال لا الحصر استُبدل وجه الرئيس الأرجنتيني ماوريسيو ماكري بوجه أدولف هتلر كمَا استعيض عن وجه أنجيلا ميركل بقلم دونالد ترامب.[20][21] في نيسان/أبريل 2018؛ نشرَ جوردان بيل وجوناه بريتي فيديو على شكلِ إعلان خدمى عامّة يظهرُ فيه الرئيس الأمريكي السابق باراك أوباما وهوَ يتحدث حولَ خطر التزييف العميق.[22] وفي كانون الثاني/يناير 2019، بثت شبكة فوكس التلفزيونية هي الأخرى فيديو مصنوع بتقنيّة التزييف العميق «بنيّة حسنة» للرئيس ترامب خلال خطابه في المكتب البيضاوي.[23]

برامج التزييف العميقعدل

في كانون الثاني/يناير 2018؛ أُطلق برنامج فايك آب (بالإنجليزية: FakeApp) للحواسيب. يسمحُ هذا البرنامج للمستخدمين بإنشاء ومشاركة مقاطع الفيديو بسهولة مع تغيير الوجوه حيثُ يستخدم شبكة عصبية اصطناعية وقوة معالج رسومات وثلاثة إلى أربعة جيجا بايت من مساحة التخزين لإنشاء الفيديو المزيف؛ وَللحصول على معلومات مفصلة يحتاج البرنامج إلى إدخال الكثير من المواد المرئية لنفسِ الشخص لمعرفة جوانب الصورة التي يجب تبادلها باستخدام خوارزمية التزييف العميق القائمة على تسلسل الفيديو والصور.

يستخدم البرنامج عددًا من التقنيّات بما في ذلك تنسرفلو من جوجل كما يعتمدُ على خوارزميّة برنامج ديب دريم (بالإنجليزية: DeepDream). بشكلٍ عام؛ يُعدّ المشاهير الموضوع الرئيسي لمقاطع الفيديو المزيفة هذه لعدّة أسباب من بينها سهولة جمع فيديوهات عنهم من النت على عكسِ الأشخاص العاديين.[24][25][26] في آب/أغسطس 2018؛ نشرَ باحثون من جامعة كاليفورنيا في بيركلي ورقة علميّة تقدم تطبيقًا للتزييف العميق يمكن أن يخلق انطباعًا جيدًا عندَ الرقص باستخدام الذكاء الاصطناعي.[27][28]

هناك أيضًا بدائل مفتوحة المصدر لبرنامج فايك آب الأصلي مثلَ ديب فايس (بالإنجليزية: DeepFace[29] فايس سواب (بالإنجليزية: FaceSwap) المُستضاف حاليًا على غيت هاب،[30] وماي فايك آب (بالإنجليزية: myFakeApp) المستضاف حاليًا على موقع بيت باكيت.[31] [32]

الانتقاداتعدل

الانتهاكاتعدل

يقول الخبير في علوم الكمبيوتر آرجوير زيتونغ (بالإنجليزية: Aargauer Zeitung) أن التلاعب بالصور ومقاطع الفيديو باستخدام الذكاء الاصطناعي يُمكن أن يصبح ظاهرة جماعية خطيرة. ومع ذلك؛ فإن هذا التخوّف هو نفسه الذي شعرَ به الكل حينما ظهرت للوجود برامج تحرير الفيديو وبرامج تحرير الصور.[20] بشكلٍ عام؛ تبقى قُدرة البشر على التمييز بين الفيديو المزوّر والآخر الحقيقي هي العامِل الأهم في التأثير إيجابيًا أم سلبيًا على هذه التقنيّة.[33][34]

المصداقيةعدل

إنّ الفشل في التمييز بين الفيديو المزيّف والآخر الحقيقي قد يؤثر بشكلٍ كبيرٍ جدًا على كل الفيديوهات المنشورة على الويب كما سيخلق الكثير من الجدل عندَ نشر كل فيديو حتى لو كانَ صحيحًا. في هذا السياق؛ يقولُ الباحث في الذكاء الاصطناعى أليكس شامباندارد «إنه يجب على كل شخص أن يعرفَ أن المشكلة ليست مشكلة تقنية بقدرِ ما هي مُشكلة ثقة في المعلومات التي تُقدّمها وسائل الإعلام وَالصحافة.» ويُواصل: «المشكلة الأساسية هي أن الإنسانية يمكن أن تقع في عصرٍ لم يعد فيهِ من الممكن تحديد ما إذا كان محتوى صورة أو فيديو ما حقيقيًا أم لا![20]»

ردود الفعل على الإنترنتعدل

أعلنت بعض مواقع الويب مثلَ تويتر وجي إف واي كات أنها ستحذف المحتوى المصنوع عبر تقنيّة التزييف العميق كما ستحظر ناشر مثل هذا النوع من المُحتوى. في السابق؛ منعت منصة الدردشة ديسكورد تداول وتبادل مقاطع الفيديو الإباحية المشهورة المزيفة ونفس الأمر فعلهُ الموقع الإباحي بورن هاب ومع ذلك؛ فقد أفيد أن الموقع لم يقم بحظرٍ شامل لهذا المحتوى.[35][36] أمّا في رديت فقد ظل الوضع في البداية غير واضح حتى 7 شباط/فبراير 2018 عندما بدأَ الموقع في حظر كل من ينشر أو يتبادل تلك النوعيّة من الفيديوهات بدعوى خرق سياسة الموقع.[18][37] [38][39] وَفي سبتمبر 2018؛ أضافَ موقع جوجل «الصور الإباحية الاصطناعية» لقائمة النتائج الممنوعة من الظهور.[40]

ملاحظاتعدل

  1. ^ تُعدّ هذه العبارة حديثة العهد في اللغة الإنجليزية؛ حيثُ صِيغت لأوّل مرة عام 2017.[1]

المراجععدل

  1. ^ Brandon، John (2018-02-16). "Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise". Fox News (باللغة الإنجليزية). مؤرشف من الأصل في 15 يونيو 2018. اطلع عليه بتاريخ 20 فبراير 2018. 
  2. ^ Schwartz، Oscar (12 November 2018). "You thought fake news was bad? Deep fakes are where truth goes to die". The Guardian (باللغة الإنجليزية). مؤرشف من الأصل في 16 يونيو 2019. اطلع عليه بتاريخ 14 نوفمبر 2018. 
  3. ^ "Experts fear face swapping tech could start an international showdown". The Outline (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 28 فبراير 2018. 
  4. ^ Roose، Kevin (2018-03-04). "Here Come the Fake Videos, Too". The New York Times (باللغة الإنجليزية). ISSN 0362-4331. مؤرشف من الأصل في 18 يونيو 2019. اطلع عليه بتاريخ 24 مارس 2018. 
  5. ^ Bregler، Christoph؛ Covell، Michele؛ Slaney، Malcolm (1997). "Video Rewrite: Driving Visual Speech with Audio". Proceedings of the 24th Annual Conference on Computer Graphics and Interactive Techniques. 24: 353–360 – عبر ACM Digital Library. 
  6. ^ Suwajanakorn، Supasorn؛ Seitz، Steven M.؛ Kemelmacher-Shlizerman، Ira (July 2017). "Synthesizing Obama: Learning Lip Sync from Audio". ACM Trans. Graph. 36.4: 95:1–95:13 – عبر ACM Digital Library. 
  7. ^ Thies، Justus؛ Zollhöfer، Michael؛ Stamminger، Marc؛ Theobalt، Christian؛ Nießner، Matthias (June 2016). "Face2Face: Real-Time Face Capture and Reenactment of RGB Videos". IEEE: 2387–2395. ISBN 9781467388511. doi:10.1109/CVPR.2016.262. مؤرشف من الأصل في 24 أغسطس 2019. 
  8. أ ب Cole، Samantha (24 January 2018). "We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now". Vice. مؤرشف من الأصل في 7 سبتمبر 2019. اطلع عليه بتاريخ 04 مايو 2019. 
  9. ^ Haysom، Sam (31 January 2018). "People Are Using Face-Swapping Tech to Add Nicolas Cage to Random Movies and What Is 2018". Mashable. مؤرشف من الأصل في 24 يوليو 2019. اطلع عليه بتاريخ 04 أبريل 2019. 
  10. ^ Cole، Samantha (11 December 2017). "AI-Assisted Fake Porn Is Here and We're All Fucked". Vice. مؤرشف من الأصل في 7 سبتمبر 2019. اطلع عليه بتاريخ 19 ديسمبر 2018. 
  11. أ ب Hathaway، Jay (8 February 2018). "Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban". The Daily Dot. مؤرشف من الأصل في 6 يوليو 2019. اطلع عليه بتاريخ 22 ديسمبر 2018. 
  12. ^ "r/SFWdeepfakes". Reddit. مؤرشف من الأصل في 9 أغسطس 2019. اطلع عليه بتاريخ 12 ديسمبر 2018. 
  13. ^ Roettgers، Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (باللغة الإنجليزية). مؤرشف من الأصل في 10 يونيو 2019. اطلع عليه بتاريخ 28 فبراير 2018. 
  14. ^ "It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet" (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018. 
  15. ^ Kharpal، Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC. مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018. 
  16. ^ "PornHub, Twitter Ban 'Deepfake' AI-Modified Porn". PCMAG (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 20 فبراير 2018. 
  17. ^ AI-Assisted Fake Porn Is Here and We’re All Fucked، Motherboard، 2017-12-11، مؤرشف من الأصل في 5 مايو 2019 
  18. أ ب Markus Böhm (2018-02-07)، "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor، Spiegel Online، مؤرشف من الأصل في 23 سبتمبر 2019 
  19. ^ "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post. 2018-12-31. مؤرشف من الأصل في 13 يونيو 2019. اطلع عليه بتاريخ 19 يونيو 2019. 
  20. أ ب ت "Wenn Merkel plötzlich Trumps Gesicht trägt: die gefährliche Manipulation von Bildern und Videos". az Aargauer Zeitung. 2018-02-03. مؤرشف من الأصل في 13 أبريل 2019. 
  21. ^ Patrick Gensing. "Deepfakes: Auf dem Weg in eine alternative Realität?". مؤرشف من الأصل في 9 سبتمبر 2018. 
  22. ^ Romano، Aja (April 18, 2018). "Jordan Peele's simulated Obama PSA is a double-edged warning against fake news". Vox. مؤرشف من الأصل في 11 يونيو 2019. اطلع عليه بتاريخ September 10, 2018. 
  23. ^ Swenson، Kyle (January 11, 2019). "A Seattle TV station aired doctored footage of Trump's Oval Office speech. The employee has been fired.". The Washington Post (باللغة الإنجليزية). مؤرشف من الأصل في 15 أبريل 2019. اطلع عليه بتاريخ January 11, 2019. 
  24. ^ Britta Bauchmüller، "Fake-App": Mit diesem Programm kann jeder im Porno landen – ob er will oder nicht!، Berliner-Kurier.de، مؤرشف من الأصل في 28 أغسطس 2019 
  25. ^ Eike Kühl (2018-01-26)، Künstliche Intelligenz: Auf Fake News folgt Fake Porn، Die Zeit، ISSN 0044-2070، مؤرشف من الأصل في 24 مايو 2019 
  26. ^ heise online، Deepfakes: Neuronale Netzwerke erschaffen Fake-Porn und Hitler-Parodien، مؤرشف من الأصل في 12 ديسمبر 2019 
  27. ^ Farquhar، Peter (2018-08-27). "An AI program will soon be here to help your deepfake dancing – just don't call it deepfake". Business Insider Australia (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 27 أغسطس 2018. 
  28. ^ "Deepfakes for dancing: you can now use AI to fake those dance moves you always wanted". The Verge. مؤرشف من الأصل في 17 مايو 2019. اطلع عليه بتاريخ 27 أغسطس 2018. 
  29. ^ "DeepFaceLab is a tool that utilizes machine learning to replace faces in videos. Includes prebuilt ready to work standalone Windows 7,8,10 binary (look readme.md).: iperov/DeepFaceLab". 19 June 2019. مؤرشف من الأصل في 9 مايو 2019. 
  30. ^ "Build software better, together". GitHub. مؤرشف من الأصل في 20 يونيو 2019. 
  31. ^ "Bitbucket". bitbucket.org. مؤرشف من الأصل في 10 أبريل 2019. 
  32. ^ Fiske، Tormod. "Imagining Deceptive Deepfakes" (PDF). www.duo.uio.no. مؤرشف من الأصل (PDF) في 7 مارس 2019. اطلع عليه بتاريخ 19 يونيو 2019. 
  33. ^ Künstliche Intelligenz: Selfies sind eine gute Quelle، Die Zeit، 2018-01-26، ISSN 0044-2070، مؤرشف من الأصل في 25 مايو 2019 
  34. ^ „Deepfake“ – FakeApp kann Personen in Pornos austauschen – Welche Rechte haben Geschädigte?، WILDE BEUGER SOLMECKE Rechtsanwälte، 2018-02-02، مؤرشف من الأصل في 13 أبريل 2019 
  35. ^ "Pornhub hasn't been actively enforcing its deepfake ban". Engadget (باللغة الإنجليزية). مؤرشف من الأصل في 10 أبريل 2019. اطلع عليه بتاريخ 21 أبريل 2018. 
  36. ^ "Pornhub Banned Deepfake Celebrity Sex Videos, But The Site Is Still Full Of Them". BuzzFeed (باللغة الإنجليزية). مؤرشف من الأصل في 20 يونيو 2018. اطلع عليه بتاريخ 21 أبريل 2018. 
  37. ^ barbara.wimmer، Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos، مؤرشف من الأصل في 8 فبراير 2018 
  38. ^ heise online. "Deepfakes: Auch Reddit verbannt Fake-Porn". مؤرشف من الأصل في 10 أبريل 2019. 
  39. ^ "Reddit verbannt Deepfake-Pornos". مؤرشف من الأصل في 10 أبريل 2019. 
  40. ^ Washington Post. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". مؤرشف من الأصل في 14 يونيو 2019.