أخبار عاجلة
الرئيسية / دراسات مكافحة الإرهاب وتفكيك التطرف / حظر المحتويات الإرهابيّة على مواقع التّواصل الاِجتماعي

حظر المحتويات الإرهابيّة على مواقع التّواصل الاِجتماعي

Spread the love

ارهاب

في الـ26 من جوان الماضي أعلنت شركات فيسبوك ومايكروسوفت وتويتر ويوتيوب عن تأسيس “منتدى الإنترنت العالمي لمكافحة الإرهاب” وذلك عقب أيّام من اِنتهاء أعمال القمّة الأوروبية في بروكسل (23 جوان 2017) والّتي حثّت شركات وسائل التّواصل الاِجتماعي على اِتّخاذ ما يلزم لمنع اِنتشار الموادّ الإرهابية على الإنترنت.

تعكس تلك التحرّكات والضّغوط تصاعد حدّة الاِنتقادات الدّولية ضدّ تلك الشّركات، والّتي وصلت إلى حدّ اِتّهامها بالتورّط في دعم الإرهابيين الّذين يستخدمون أدواتها الرّقمية، ما يطرح تساؤلات ليس فقط بشأن آليات وتحدّيات حظر المحتوى الإرهابي على مواقع الإعلام الاِجتماعي، وإنّما أيضا بشأن التّوافق على ماهيّة هذا المحتوى بالأساس.

ضغوط متزايدة:

في الشّهور الأخيرة واجهت شركات فيسبوك وتويتر وجوجل ضغوطا متزايدة من جانب الحكومات لمنع اِستخدام المتطرّفين لمنصّاتهم الاِجتماعية، عبر توجيه التّصريحات وإطلاق البيانات وعقد اللّقاءات على مستوى الدّول أو التجمّعات الدّولية، فضلا عن شنّ الحملات المشتركة على غرار إطلاق رئيسة وزراء بريطانيا تيريزا ماي، والرّئيس الفرنسي إيمانويل ماكرون، في جوان الماضي، حملة مشتركة لبحث سبل توفير بيئة آمنة على الإنترنت، من بينها تحميل الشّركات المسؤولية القانونية إذا رفضت إزالة محتويات بعينها.

كما اِمتدّت تلك الضّغوط إلى الملاحقات القضائية ورفع دعاوى تتّهم الشّركات بتقديم الدّعم المادّي للتّنظيمات الإرهابية، ما يفتح المجال أمام توقيع عقوبات على تلك الشّركات ودفع تعويضات باهظة للضّحايا وأسرهم، إلى جانب الضّغوط التّشريعية عبر التّلويح بفرض قوانين تُلزم شركات الإعلام الاِجتماعي بتحمّل تكاليف مراقبة محتوى الإنترنت، ونشر تقارير عامّة عن تفاصيل عمليّات الفحص، وفقا لما أعلنته لجنة للمشرّعين البريطانيين في ماي الماضي، أو سَنّ تشريعات تفرض بالفعل غرامات ضخمة ضدّ الشّركات المتقاعسة.

فعلى سبيل المثال، أقرّت ألمانيا في أفريل من العام الجاري قانونا يفرض غرامة قدرها 50 مليون يورو على الشّبكات حال اِمتناعها عن خيار الإبلاغ عن خطابات الكراهية والأخبار المزيّفة، أو إذا رفضت إزالة المحتويات غير القانونية المبلّغ عنها، سواء كانت صور الاِعتداءات الجنسية على الأطفال أو التّحريض على الإرهاب.

وعلى الرّغم من أنّ اِستخدام الجماعات الإرهابية للإعلام الاِجتماعي ليس بالأمر الجديد؛ إلاّ أنّه يمكن تفسير تصاعد وتيرة تلك الضّغوط خلال العامين الأخيرين بقضية تجنيد المقاتلين الأجانب عبر الإنترنت، والّتي مثّلت نقطة محورية في إثارة حفيظة الدّول الكبرى ضدّ مواقع التّواصل الاِجتماعي، لا سيما تلك الدّول الّتي شهدت عمليات إرهابية نفّذها متطرّفون يحملون جنسيّتها. فقد اِستثمرت التّنظيمات المتطرّفة -وفي مقدّمتها “داعش”- تقنيات التّواصل العابر للحدود والتّفاعل المباشر الّتي أتاحتها الشّبكات الاِجتماعية في مخاطبة قطاع عريض من المقاتلين المحتملين، ما اِنعكس في صعود ما يُسمّى باِستراتيجية “الذّئاب المنفردة”.

وكانت ظاهرة “الذّئاب المنفردة”، واِستخدام الإعلام الاِجتماعي في تجنيدها، سمة أساسية للعمليّات الإرهابية في الأراضي الأوروبية خلال العامين الأخيرين، سواء في هجمات باريس (نوفمبر 2015)، أو هجوم أورلاندو بالولايات المتّحدة (جوان 2016)، أو ما تلاهما من هجمات بالدّول الأوروبية، وهو ما أشارت إليه دراسة أمريكية أجراها ألكسندر هيتشنز وسيموس هيوز الباحثان في “البرنامج حول التطرّف” بجامعة جورج واشنطن، ونشرت نتائجها في مارس 2017.

قالت الدّراسة إنّ ثمانية مشاريع هجمات على الأقلّ من أصل 38 خُطّط لها أو نُفّذت في الولايات المتّحدة منذ 2014، دبّرها أو نفّذها أشخاص أعدّهم “مدرّبون اِفتراضيون” عبر الإنترنت تابعون لتنظيم “داعش”، وأنّ هؤلاء المدرّبين الاِفتراضيين يعملون بصورة مستقلّة للتّخطيط لهجمات دون إشراف من قادة التّنظيم، مستخدمين شبكات التّواصل الاِجتماعي ومواقع الرّسائل المشفّرة.

كما نشرت مجلّة “بيزنس إنسايدر” الأسترالية عام 2014 مقالا للباحث الأمني “جيف باردين” أوضح فيه نتائج دراسته لأنشطة مجموعات الإرهابية على مواقع التّواصل الاِجتماعي خلال ثماني سنوات، والّتي خلُصت إلى أنّ داعش يجنّد شهريّا أكثر من 3400 عنصر عبر حملات إلكترونية غاية في التّنسيق.

ووفقا لدراسة معهد بروكنجز “إحصاء تويتر داعش: تعريف ووصف داعمي داعش على تويتر” والّتي صدرت في مارس 2015، فقد اِستخدم مؤيّدو التّنظيم 46 ألف حساب على تويتر بين سبتمبر وديسمبر 2014 على الرّغم من أنّهم لم يكونوا نشطين في الوقت نفسه، وهي الإحصاءات الّتي تكشف في مجملها عن توظيف التّنظيمات الإرهابية لإمكانات التّواصل غير المسبوقة الّتي أتاحتها الشّبكات الاِجتماعية لأغراض التّجنيد والدِّعاية والحشد والتّمويل.

سياسات مكافحة المحتوى الإرهابي:

تتحمّل مواقع التّواصل الاِجتماعي مسؤولية إزاء المحتوى الإرهابي الّذي تبثّه، ليس فقط باِعتبارها الجهة المقدِّمة للخدمة والمسؤولة عمّا تحتويه من مضمون، وإنّما لاِمتلاكها هذا المضمون نفسه بموجب أحكام وسياسات الاِستخدام الّتي تعلنها تلك الشّركات، وتُعدّ الموافقة عليها شرطا مسبقا لإنشاء أيّ حساب عليها. وقد اِتّبعت شركات الإعلام الاِجتماعي سياسات لمحاصرة المحتوى الإرهابي ترتكز على عدّة مسارات رئيسة متكاملة، هي:

1- تطوير المكافحة الآلية: والّتي تعتمد على تقنيات الذّكاء الاِصطناعي الّتي تقوم على اِبتكار البرمجيات القادرة على رصد المحتوى وحظره، عبر تقنيات متطوّرة، بما يتضمّنه ذلك من جهد ومخصّصات مالية للاِستثمار في البحوث وعمليات التّطوير والاِبتكار.

ومن أبرز تلك التّقنيات مطابقة الصّور الّتي تمنع رفع أو تداول المحتوى المسجّل في قواعد البيانات، باِعتباره محتوى إرهابيّا، وتقنيات التّحليل الدّلالي الّتي تعتمد على خوارزميات متقدّمة تقوم بتحليل اللّغة لرصد المحتوى الدّاعم والمؤيّد، وتقنيّات رصد الشّبكات الإرهابية عبر تحليل الاِرتباطات بين الحسابات والصّفحات، فضلا عن رصد الحسابات المزيّفة والحظر العابر للمنصّات بمنع تواجد الحساب على مختلف المنصّات الاِجتماعية، وهو ما يتمّ بشكل آلي عبر تقنيات الذّكاء الاِصطناعي الّتي لا تسعى فقط إلى رصد المحتوى الإرهابي ولكن رصده بسرعة تفوق ملاحظة المستخدمين له، والدّخول في شبكة معقّدة من إعادة النّشر وإعادة التّحميل تطيل فترة بقاء هذا المحتوى على الشّبكة.

2- تطوير الآليات البشرية: بالنّظر إلى عدم القدرة الكاملة للآلات على تعقّب واِكتشاف كلّ النّشاطات الدّاعمة للإرهاب أو تمييز سياقاتها، تأتي أهمّية الذّراع الثّانية لآليات المكافحة، وهي المكافحة البشرية من خلال فرق فحص بلاغات المستخدمين الّذين يقدّمون تقارير ضدّ حسابات أو محتوى يحضّ على العنف والكراهية، وكذلك الاِستعانة بالمنظّمات المستقلّة والخبراء المتخصّصين.

وقد أعلن فيسبوك أنّ عمليات التّدقيق في التّقارير والمراجعات تتمّ عبر فرق مجتمعية منتشرة حول العالم، سيتمّ زيادتها بنحو ثلاثة آلاف شخص خلال العام المقبل، فضلا عن اِستعانته بالمتخصّصين في قضايا التطرّف ومكافحة الإرهاب الّذين يبلغ عددهم أكثر من 150 شخصا.

كما أطلق موقع يوتيوب برنامجا باِسم “المبلّغون الموثوق بهم”، والّذي يسمح لجماعات وأفراد وصفتهم الشّركة بأنّهم “اُختيروا بناء على دقّتهم في التعرّف على المحتوى الّذي يخالف سياسات يوتيوب” بالإبلاغ عن أعداد كبيرة من مقاطع الفيديو مع التصرّف في هذه البلاغات على الفور، وقد أعلن يوتيوب خلال الشّهر الماضي عن توسيع البرنامج بإضافة 50 منظّمة غير حكومية خبيرة إلى جانب 63 منظّمة منضمّة حاليّا إليه.

3- تطوير السّياسات والقواعد الضّابطة للمحتوى وتحديثها: فلم تكتفِ مواقع التّواصل الاِجتماعي بإدراج بنود في سياسات اِستخدامها تُلزم روّادها بقواعد لمكافحة الإرهاب والعنف والكراهية، وإتاحة آليات للإبلاغ عنها، ولكنّها عملت أيضا على تحديثها، إذ أعلن فيسبوك -على سبيل المثال- عن تطبيق سياسة جديدة تمنع الأفراد من الإعلان عن الأسلحة النّارية أو بيعها على الشّبكة.

كما أعلن يوتيوب سياسات جديدة بشأن “المحتوى الجدالي” أي المحتوى الّذي لا يندرج عليه وصف الإرهاب، ولكنّه يتضمّن خطابا دينيّا متشدّدا أو قد يؤدّي إلى ممارسة العنف حتّى وإن لم يتضمّن ذلك صراحة، حيث أعلنت شركة جوجل المالكة للموقع في 18 جوان 2017 عن سياسات جديدة لمحاصرة هذا المحتوى، تتضمّن وضع تحذيرات للمستخدمين قبل ولوجهم إلى هذا النّوع من المحتوى، ومنع التّعليق عليه أو منحه تقييمات إيجابية، وكذلك منع ظهور الإعلانات عليه، ما يحرم النّاشر من فرص التربّح والحصول على المال، كما سيتمّ اِستبعاد هذا المحتوى من قوائم التّرشيحات المقترحة.

4- بناء الشّراكات والتّعاون، سواء على مستوى الصّناعة التّكنولوجية نفسها، أو على مستوى الفاعلين ذوي المصلحة، ويعبّر منتدى الإنترنت العالمي لمكافحة الإرهاب الّذي أعلنت شركات فيسبوك ومايكروسوفت وتويتر ويوتيوب (جوجل/ألفابيت) في جوان الماضي عن تأسيسه نموذجا للشّراكة على مستوى الصّناعة وكذلك على مستوى الفاعلين ذوي الصّلة.

يعبّر المنتدى عن مبادرة دولية لا تشمل الشّركات الأربع فقط، وإنّما تمتدّ للشّركات النّاشئة والمجتمع المدني والأكاديميين والحكومات والمنظّمات الدّولية لتقاسم الموارد والأدوات التّكنولوجية والتّنظيمية، وتطوير الحلول التّقنية لرصد المحتوى الإرهابي، وتطوير خطاب مضادّ للدِّعاية الإرهابية.

وقد سبق وأعلنت الشّركات الأربع في ديسمبر 2016 عن تأسيس شراكة عالمية لمكافحة المحتوى “ذي الطّابع الإرهابي”، تشمل إنشاء قاعدة بيانات مشتركة تتضمّن “البصمات الرّقمية” للصّور، أو شرائط الفيديو التّرويجية والمعدّة للاِستقطاب والتّجنيد، في خطوة هامّة على صعيد تشارك الموارد والمعرفة.

ولا يُعدّ المنتدى هو المبادرة الوحيدة لبناء شراكات لمكافحة المحتوى الإرهابي، إذ سبق وأعلن فيسبوك يوم 24 جوان الماضي عن “مبادرة الشّجاعة المدنية عبر الإنترنت في بريطانيا”، والّتي تهدف إلى تدريب وتمويل منظّمات أهلية بهدف محاربة التطرّف وخطابات الكراهية، واِنضمّ لها شركاء بريطانيون، منهم مؤسّسة “جو كوكس” الّتي جرى إنشاؤها بعد مصرع البرلمانية البريطانية المعروفة بمواقفها المتعاطفة مع اللاّجئين في جوان 2016، فضلا عن جماعات مناهضة للكراهية من اليهود والمسلمين. كما سبق وأطلق فيسبوك مبادرات في الإطار ذاته لمناهضة الكراهية في ألمانيا 2016، وفرنسا 2017، واللّتين شهدتا هجمات إرهابية خلال العامين الأخيرين.

5- تفعيل المحتوى المضادّ: وذلك بتشجيع إنتاج المحتوى المناهض للإرهاب، وهو ما اِتّبعت فيه شركات التّكنولوجيا مسارات مختلفة، ففيما اِتّجه فيسبوك لعقد الشّراكات مع المنظّمات غير الحكومية للتّدريب على إنتاج هذا الخطاب، ودعم الأصوات الأكثر تأثيرا فيه، فقد اِتّبع يوتيوب أسلوب إعادة التّوجيه عبر برنامج المبدعين من أجل التّغيير الّذي يعمل على إعادة توجيه المستخدمين الّذين يلجون إلى محتوى يروّج للإرهاب إلى محتوى مضادّ للتطرّف.

صعوبات وتحدّيات:

في ظلّ الضّغوط المتزايدة الّتي يمارسها المجتمع الدّولي من أجل حفز الشّركات التّكنولوجية على تطوير آليات وسياسات مكافحتها للمحتوى الإرهابي، وما يقابلها من جهود تبذلها تلك الشّركات بالفعل لتجنّب الاِتّهامات السّياسية أو التّضييقات القانونية أو الملاحقات القضائية، وما يستتبعه ذلك من خسائر اِقتصادية جسيمة، تظهر عدّة صعوبات وتحدّيات تعترض مهمّة حظر ومكافحة المحتوى الإرهابي على الإعلام الاِجتماعي، تتمثّل في:

1- تحدّيات تقنيات الذّكاء الاِصطناعي: على الرّغم من التقدّم الّذي أحرزته هذه التّقنيات؛ إلاّ أنّها لا تزال تُعاني من إشكاليات تحليل المحتوى اللّغوي، خاصّة مع اِنتشار اللّغات الهجينة مثل الفرانكو واللّهجات العامية، فضلا عن تحليل الإشارات غير اللّفظية والصّور والسّياق، وهي الأمور الّتي تطرح صعوبات أمام الاِعتماد الكامل على التّحليل الآلي لمحتوى بالغ الضّخامة وفائق النموّ لا يمكن رصده عبر الخبرات البشرية فحسب.

2- تعريف المحتوى الإرهابي: إذ لا يوجد توافق دولي بشأن ماهية الإرهاب نفسه ومن ثمّ ماهية المحتوى الإرهابي، فإذا كانت عمليات داعش وذبح الجنود وتفجيرات الكنائس أعمالا إرهابية تحظى بقدر وافر من التّوافق بشأن التّعريف؛ إلاّ أنّ أعمال المقاومة الفلسطينية -على سبيل المثال- لا تحظى بالتّوافق الدّولي ذاته، وسبق أن قام فيسبوك بحظر حسابات فلسطينية ورسوم كاريكاتير مناهضة لإسرائيل باِعتبارها محتوى يحرّض على العنف.

3- أزمة الثّقة في حماية بيانات المستخدمين: إذ إنّ شركات التّكنولوجيا تُدير أخطر المعلومات عن حياة المستخدمين وأعمالهم وشركاتهم، وتعاونها مع أجهزة سياسية وأمنية بالكشف عن معلومات المستخدمين يضع اِستقلاليتها على المحكّ، ويطرح تساؤلات جادّة بشأن الثّقة في إجراءات الأمن الرّقمي وحماية الخصوصية حال التوسّع في التّعاون مع الجهات الأمنية، بما يدفع الشّركات التّكنولوجية إلى تفعيل المبادرات الذّاتية أو القائمة على التّعاون مع المجتمع المدني وإدماج المستخدمين، وهو ما لن يفي بالمتطلّبات الأمنية في كثير من الأحوال.

4- مخاوف الحرّيات: شركات الإعلام الاِجتماعي لا تتعامل مع حكومات دول تتمتّع بنظم ديمقراطية فحسب، وإنّما هي ذات نشاط عالمي يمتدّ إلى دول أخرى قد تسعى لاِستخدام هذا التّعاون لملاحقة المعارضين وتضييق الحرّيات.

5- مخاطر الاِنكشاف الأمني: ففي خضمّ مطالب الشّفافية وإقرار الشّركات التّكنولوجية بالجهود الّتي تقوم بها لفحص المحتوى، يظهر خطر اِنكشاف تلك التّقنيات وتطوير الإرهابيين الّذين يتمتّعون بمهارات تكنولوجية متقدّمة لآليات مضادّة، وقد تعرّض فيسبوك بالفعل لحالة اِنكشاف خطيرة نهاية العام الماضي بعدما تسبّب خلل أمني فنّي في كشف هويّات أكثر من 1000 موظّف عبر 22 إدارة في فيسبوك يستخدمون برامج الإشراف على المحتوى، إذ ظهرت هويّات المشرفين تلقائيّا على شكل إشعارات في سجلّ النّشاط لدى مجموعات في فيسبوك تمّ حظر محتويات لديها بسبب خرق شروط الخدمة، الأمر الّذي يُعرّضهم لمخاطر الاِستهداف الإرهابي.

(د. فاطمة الزّهراء عبدالفتّاح)