قال موقع YouTube إنه أزال 8.3 مليون مقطع فيديو لخرقها قواعد الاستخدام في الفترة بين تشرين الأول/أكتوبر وكانون الأول/ديسمبر من العام 2017، في محاولة للاستجابة لانتقادات وجهت للمحتوى العنيف والمسيء على موقعها.
ووفق صحيفة The Guardian البريطانية، فإن إدارة يوتيوب نشرت الشركة التقرير ربع السنوي الأول، وسط تزايد الشكاوى حول عدم قدرتها على التعامل مع المحتوى المتطرف والمسيء.
YouTube – وهي شركة تابعة للشركة الأم Alphabet التي تتبعها Google أيضاً -، واحدة من العديد من شركات الإنترنت التي تتعرض لضغط من الحكومات الوطنية والاتحاد الأوروبي لإزالة مثل هذه الفيديوهات.
وﻗﺎلت الشركة إن اﻟﺗﻘرﯾر ﮐﺎن ﺧطوة أوﻟﯽ هاﻣﺔ ﻓﻲ اﻟﺗﻌﺎﻣل ﻣﻊ اﻟﻣﺷﮐﻟﺔ و"ﺳﯾﺳﺎﻋد ﻋﻟﯽ إظهار اﻟﺗﻘدم اﻟذي ﻧﺣرزه ﻓﻲ إزاﻟﺔ اﻟﻣﺣﺗوى الذي ينتهك إرشادات الاستخدام ﻣن ﻣﻧﺻﺗﻧﺎ".
وأضاف، "إن غالبية هذه الفيديوهات التي يبلغ عددها 8 ملايين مقطع فيديو، هي مقاطع مكررة أو غير مرغوب فيها أو لأشخاص يحاولون تحميل محتوى جنسي، وهي تمثل نسبة ضئيلة من إجمالي المشاهدات على YouTube خلال هذه الفترة الزمنية".
انتقادات بسبب المحتوى
وتابع قائلاً بأن 6.7 مليون منها تم تحديدها لأول مرة للمراجعة بطريقة آلية وليست بشرية. تمت إزالة 76 ٪ منها قبل أن تحصل على مشاهدة واحدة.
تعرض موقع YouTube أيضاً لانتقادات بسبب المحتوى الذي يسمح به.
فبعد أيام من واقعة القتل الجماعي في مدرسة Marjory Stoneman Douglas الثانوية في الولايات المتحدة في فبراير/شباط 2018، تم الترويج لمقاطع الفيديو التي زعمت أن الناجين كانوا "أطرافاً فاعلة في الأزمة" زرعوا في المكان لحشد معارضة مزيفة لانتشار الأسلحة في البلاد.
وأصبح أحد هذه المقاطع، الفيديو الأكثر رواجاً على الموقع قبل إزالته لانتهاكه سياسات التحرش والتسلط.
ولا تحظر إرشادات مجتمع YouTube على وجه التحديد التضليل أو الخداع، على الرغم من أن الشركة قد أعلنت عن خطط لربط صفحات ويكيبيديا لنظريات المؤامرة الأكثر وضوحاً.
ما هي إجراءات إزالة المحتوى المشتبه به؟
ووعدت شركة Google بأن يكون لديها أكثر من 10 آلاف شخص يعملون على تطبيق إرشادات المنتدى بحلول نهاية العام 2018، بعد أن كان "الآلاف" يقومون بهذه المهمة في العام 2017. سيكون معظمهم، ولكن ليس كلهم، مراقبين بشريين يعملون على YouTube. وسيتضمن العمل أيضاً مهندسين يعملون على أنظمة مثل اكتشاف الرسائل غير المرغوب فيها والتعلم الآلي وتجزئة الفيديو.
تتطلب إجراءات عملية الإزالة الحالية الإبلاغ عن محتوى مشتبه به أولاً، قبل مشاهدته لمعرفة ما إذا كان ينتهك إرشادات المنصة، قبل اتخاذ قرار بشأن إزالته.
وأشارت الشركة إلى أن الغالبية العظمى من مقاطع الفيديو التي تم حذفها – أكثر من 80٪ – تم الإبلاغ عنها للاشتباه بها من قبل أحد أنظمة Google الآلية، وليس الأفراد.
تعمل هذه الأنظمة على نطاق واسع بإحدى الطرق الثلاث: يستخدم بعضها خوارزمية لأخذ بصمات المقاطع غير اللائقة، ثم مطابقتها مع التحميلات المستقبلية؛ بينما تتتبع أنظمة أخرى الأنماط المشبوهة للتحميلات، والتي تعد مفيدة بشكل خاص للكشف عن الرسائل غير المرغوب فيها.
تستخدم مجموعة ثالثة من الأنظمة تكنولوجيا التعلم الآلي الخاصة بالشركة لتحديد مقاطع الفيديو التي تنتهك المبادئ التوجيهية بناءً على تشابهها مع مقاطع الفيديو السابقة. على سبيل المثال، درب نظام التعلم الآلي المستخدم لتحديد المحتوى المتطرف والعنيف على مليوني مقطع فيديو تم استعراضها يدوياً.
وذكر YouTube أن الإبلاغ التلقائي ساعد الشركة على تحقيق هدف إزالة المزيد من مقاطع الفيديو في وقت أبكر.
في حين يكتشف التعلم الآلي العديد من مقاطع الفيديو، لا يزال YouTube يتيح للأفراد الإبلاغ عن مقاطع الفيديو. يمكن لأفراد الجمهور الإبلاغ عن أي مقطع فيديو ينتهك إرشادات المنصة. هناك أيضاً مجموعة من الأفراد و150 منظمة "موثوق بهم" – خبراء في مجالات مختلفة من المحتوى المتنازع عليه ممن يتم منحهم أدوات خاصة للابلاغ مقاطع الفيديو المثيرة للمشاكل.
ويبلغ المستخدمون المنتظمون عن 95% من مقاطع الفيديو التي لا يتم اكتشافها من خلال الاكتشاف التلقائي، في حين يوفر الخبراء الموثوقون نسبة 5٪ المتبقية. ولكن معدلات النجاح مختلفة، فبلاغات الخبراء الموثوق بهم تؤدي إلى 14 ٪ من عمليات إزالة المحتوى على الموقع، والمستخدمين العاديين 5 ٪ فقط.
كما يبلغ المراقب البشري أيضاً عن مقاطع فيديو تختلف اختلافاً كبيراً عن تلك التي تبلغ عنها الأجهزة: فأكثر من نصف التقارير الواردة من البشر كانت إما محتوى غير مرغوب فيه أو محتوى جنسياً صريحاً.