تلعب تقنيات الذكاء الاصطناعي دورًا محوريًّا في التنبؤ بالعمليات الإرهابية من خلال تحليل البيانات الضخمة للمواطنين، لكنها -في الوقت ذاته- تواجه تحديات لها علاقة بحقوق الإنسان، والآثار المترتبة على تطبيقاتها العملية، بما يطرح تساؤلات حول حدود استخداماتها التنبؤية في مكافحة الإرهاب، والفرص والمخاطر التي تترتب على ذلك. وهذا ما تصدت له ورقة بحثية صادرة عن معهد "تشاتام هاوس" في غشت 2019، بعنوان: "تنبؤ الذكاء الاصطناعي ومكافحة الإرهاب" للكاتبة "كاثيلين ماكيندريك" (رائد بالجيش البريطاني)، التي سعت للإجابة عن التساؤلات المطروحة. التنبؤ ومكافحة الإرهاب تشير "ماكيندريك" إلى أن هناك طريقتين لمنع الهجمات الإرهابية؛ الأولى هي الردع، من خلال حماية البنية التحتية، وتطبيق الضوابط الأمنية. ويساهم التنبؤ في الحماية المادية للبنية التحتية، كما أنه يمكن أن يكون وسيلة لتحسين تخصيص الموارد للمواقع التي من المحتمل أن تكون أهدافًا للإرهابيين. أما الثانية فتتمثل في الحرمان من القدرة على شن هجمات، وذلك عن طريق القبض على الإرهابيين قبل أن تنفيذ مخططاتهم، ومكافحة تجنيد الإرهابيين في المستقبل وتطرفهم، وفرض قيودٍ على حركة الأفراد وحريتهم. ويساعد التنبؤ الفعّال في استخدام القوة أو القيود القسرية ضد الإرهابيين العنيفين، بينما يتم استخدام التدابير التصالحية مع الأفراد المعرضين للتطرف. تؤكد "ماكيندريك" أن التنبؤ بمكافحة الإرهاب يتطلب نوعًا من الذكاء الاصطناعي الذي يتيح استخراج المعرفة والتنبؤات من البيانات الرقمية المتنوعة الضخمة. فالخوارزميات التي تدعم النماذج التنبؤية هي مبرمجة ذاتيًّا على أساس التعامل مع البيانات. وفي العديد من الحالات، يكون من المستحيل تحليل البيانات بدون مثل هذا النهج، كما سيكون من المستحيل بناء النماذج بدون بيانات. وتكمن المشكلة في أن التنبؤ بالعمليات الإرهابية يفرض ضرورة توسيع مساحة المراقبة للأشخاص بما يتعارض مع حقوق الإنسان، ويُعرِّض الحكومات والأجهزة الاستخباراتية لمشكلات حقوقية. ومن ثمّ يمكن في المستقبل القريب أن تُساهم التنبؤات الجيّدة المبنية على تقنيات الذكاء الاصطناعي حول من أو ما يجب مراقبته في الحد من إساءة الاستخدام بالجملة لوسائل المراقبة التقنية. تطبيقات لمكافحة الإرهاب تُشير "ماكيندريك" إلى أنه يمكن استخدام الذكاء الاصطناعي لعمل تنبؤات حول الإرهاب من خلال تحليل البيانات الوصفية للاتصالات والمعلومات عن المعاملات المالية وأنماط السفر وأنشطة تصفح الإنترنت، فضلًا عن المعلومات المتاحة للجمهور مثل نشاط وسائل التواصل الاجتماعي، والذي يُمكِّن من تحديد الإرهابيين عبر التفرقة بين ما يميز نشاط مجموعة فرعية معينة على هذه الوسائط. وتسمح أساليب التعلم الآلي بتفسير وتحليل الأنماط التي يتعذر الوصول إليها بكميات كبيرة من البيانات. وتتضمن هذه الأساليب تحليل العلاقات بين الكيانات أو الأدوات الأكثر تعقيدًا للتعرف على الصورة أو الصوت. وفي هذا الصدد، يمكن الإشارة إلى بعض الأمثلة لقدرة الذكاء الاصطناعي على التنبؤ، والتي تتمثل في: 1- التنبؤ بتوقيت وموقع الهجمات: تم تطوير نماذج تتنبأ بموقع الهجمات الإرهابية وتوقيتها. ففي عام 2015 على سبيل المثال ادعت شركة تكنولوجية ناشئة (PredictifyMe) أن نموذجها، الذي يحتوي على أكثر من 170 نقطة بيانات، كان قادرًا على التنبؤ بالهجمات الانتحارية بدقة 72%. كذلك اعتمدت بعض النماذج الأخرى على بيانات المصادر المفتوحة للأفراد الذين يستخدمون الوسائط الاجتماعية والتطبيقات على هواتفهم المحمولة، ومن بينها نظام التعرف على الأحداث في وقت مبكر (EMBERS)، والذي يدمج نتائج مختلف النماذج التنبؤية المنفصلة من أجل التنبؤ بأحداث مثل تفشي الأمراض وأحداث الاضطرابات المدنية. 2- الهشاشة والقابلية للتطرف: طوَّرت بعض شركات التكنولوجيا أدوات لتقييم قابلية التعرض للأيديولوجيات المتطرفة العنيفة؛ مثل شركة Jigsaw التابعة لشركة Alphabet Inc "المعروفة سابقًا باسم Google Ideas" والتي أعلنت عن مشروعها باسم "إعادة التوجيه"، الذي يستهدف مستخدمي مواقع مشاركة الفيديو الذين قد يكونون عُرضة للدعاية من الجماعات الإرهابية مثل تنظيم "داعش"، إذ يُعيد المشروع توجيههم إلى مقاطع الفيديو التي تتبنى رواية موثوقة ومضادة لرواية التنظيم. 3- التعرف على الإرهابيين: تُشير بعض التفاصيل المسرّبة عن برنامج لوكالة الأمن القومي الأمريكية (SKYNET) إلى أنه تم استخدام خوارزمية معتمدة على الذكاء الاصطناعي لتحليل البيانات الوصفية من 55 مليون مستخدم محلي للهاتف المحمول الباكستاني في 2007، وكانت النتيجةُ أنه تم تعريف نسبة خطأ 0.008% فقط من الحالات على أنهم إرهابيون محتملون، أي حوالي 15 ألف فرد من إجمالي سكان باكستان البالغ 200 مليون حينذاك. وبرغم أن النموذج المستخدم لم يكن فعالًا بحد ذاته، لكنه يوضح القيمة التنبؤية للبيانات عند تحديد روابط وثيقة مع الإرهاب. تحديات الاستخدام تؤكد "ماكيندريك" أن هناك بعض التحديات فيما يتعلق باستخدام تنبؤات تقنيات الذكاء الاصطناعي في مكافحة الإرهاب ترتبط بمخاوف تزايد انتهاكات حقوق الإنسان، وكذلك الآثار العملية التي تتمثل فيما يلي: أولًا- التحديات المرتبطة بحقوق الإنسان: 1- عدم وجود معايير راسخة لاستخدام تكنولوجيا الذكاء الاصطناعي، حيث لا يوجد موقف دولي متفق عليه حول حدود استخدامات الذكاء الاصطناعي في المجتمعات المختلفة، بما يضع حقوق وحريات المواطنين على المحك، خاصة مع اختلاف النظم السياسية بين سلطوية وديمقراطية، وهو ما يزيد الحاجة إلى وجود ضمانات كافية لاستخدام الذكاء الاصطناعي من قبل الحكومات والأجهزة الأمنية، وكذلك مراجعة التدابير المصممة لحماية ليس فقط الخصوصية بل أيضًا الحريات الأساسية للمواطنين مثل حرية التعبير. 2- عشوائية جمع البيانات: إن أحد مجالات الاهتمام المحددة المرتبطة بالتكنولوجيا التنبؤية للذكاء الاصطناعي لمكافحة الإرهاب يعتمد تطبيقه على جميع السكان، وهذا سيجعله عشوائيًّا، وبالتالي غير متناسب بطبيعته، فضلًا عن انتهاكه خصوصيات العامة. ومن ناحية أخرى، تركز أغلب التشريعات الخاصة باستخدام البيانات المجمعة على صلاحيات الوصول إلى البيانات مع وصف محدود لكيفية استخدام البيانات أو كيفية حمايتها من سوء الاستخدام، وإذا تم استخدام الذكاء الاصطناعي إلى حد كبير فيجب أن يثبت الإطار الذي يتم استخدامه بموجبه -أو يضمن بطريقة أخرى- مساهمته في الهدف المشروع من الاستخدام. 3- دور شركات القطاع الخاص: تمارس الشركات الخاصة دورًا أكبر في تحديد كيفية استخدام بيانات العملاء، خاصة في النظم الديمقراطية التي تلتزم فيها السلطات بالقانون، فيما يختلف الأمر في النظم السلطوية حيث يتم إجبار الشركات الخاصة على إعطاء المعلومات لوكالات إنفاذ القانون والأمن، سواء بشرائها أو بسبل أخرى مثل اعتراض الاتصالات السلكية واللا سلكية للشركات. وبالرغم من أن الشركات الخاصة لها دور متزايد بحكم مسئولياتها تجاه مستخدميها، فمن المشكوك فيه ما إذا كان ينبغي الاعتماد عليها للتصدي للانتهاك المفرط للخصوصية وحرية التعبير خاصة في الدول الاستبدادية، أو لتحقيق التوازن بين الأمن من الإرهاب والحق في الخصوصية نيابة عن الديمقراطيات. 4- عدم الشفافية: إن التعتيم المصاحب لأساليب استخدام الذكاء الاصطناعي التنبؤي في مكافحة الإرهاب، أو حتى في استخدام البيانات المجمعة عمومًا، يجعل من الصعب الحصول على ضمانات قانونية للشفافية في مكافحة الإرهاب. أحد الجوانب المهمة لسياسة مكافحة الإرهاب الناجحة هو زيادة الشفافية إلى أقصى حد كلما كان ذلك ممكنًا، ومن ثم فإن استخدام الذكاء الاصطناعي قد يمثل مشكلة إذا كان يُرى أنه يشكل تهديدًا لذلك النهج. ثانيًا- المخاوف العملية: 1- قدرة الذكاء الاصطناعي على تحقيق القيمة التنبؤية الكافية: فانخفاض معدل وقوع الإرهاب، وميل التكتيكات الإرهابية إلى التطور بسرعة كبيرة، يجعل من الصعب بناء نماذج تنبؤية جيدة. وقد يكون الذكاء الاصطناعي قادرًا على تقديم تنبؤات أفضل بناءً على السلوكيات في مجموعة من المجالات المختلفة، من خلال تحليل الاتصالات والخصائص المميزة، مثل: درجة التطرف، أو النوايا العدوانية، وحتى التنبؤ بحدوث العنف أحيانًا. لكن تقييد إمكانية الوصول إلى البيانات قد يحد من كفاءة الذكاء الاصطناعي على تحقيق تلك المهام. 2- الوصول إلى البيانات: إذ تقتصر جودة نماذج الذكاء الاصطناعي القابلة للتحقيق على القيود المفروضة على أنواع البيانات التي يمكن الوصول إليها وكيفية استخدام هذه البيانات. بيد أن "ماكيندريك" تؤكد أن بعض القيود المفروضة على الوصول إلى البيانات لا توفر بالضرورة ضمانًا للخصوصية، في حين أن القيود المفروضة على "كيفية" استخدام البيانات قد تمثل ضمانة أفضل لحماية البيانات والخصوصية. 3- غياب معايير التحقق المشتركة: فعلى الرغم من أهمية الوصول إلى البيانات؛ إلا أنه لا يضمن بحد ذاته النجاح في بناء نماذج تنبؤية دقيقة. ويعد التحققُ من صحة واختبار النماذج ضروريًّا لقياس الدقة التنبؤية، وتقييم مدى تناسب استخدامها. وهناك جهود على المستويين الوطني والدولي لمواءمة المعايير الشاملة، وتشجيع تطوير أدوات مفيدة لمكافحة الإرهاب، مثل: مشروع تكنولوجيا مكافحة الإرهاب تحت رعاية الأممالمتحدة، وأداة منع التطرف التي طورتها حكومة المملكة المتحدة. ومن ثمّ إذا تم استخدام الذكاء الاصطناعي التنبؤي على نطاق أوسع في مكافحة الإرهاب مستقبلًا، فإن الفشل في إثبات صحة النماذج التنبؤية يمكن أن يستمر في تقويض الشفافية وتبادل المعلومات. فرص ومخاطر تؤكد "ماكيندريك" أنه في حال شرعنة استخدام الذكاء الاصطناعي في مكافحة الإرهاب، فإنه سيوفر فرصًا عديدة، كما سيخلق مخاطر عدة، وذلك على النحو التالي: أولًا- الفرص: 1- قد تُساهم عملية التحليل الآلي في تقليل انتهاك الخصوصية للمواطنين مقارنةً بالتحليل البشري، كما أنه من الممكن إزالة شرط الاحتفاظ بالبيانات لتحليلها في وقت لاحق والتي ليست لها فائدة استخباراتية، ومن ثم قد يُقلل التحليل الآلي المخاوف بشأن مخالفات الخصوصية، طالما أن ضوابط الاستخدام موجودة، وجودة النماذج التنبؤية دقيقة. 2- يتيح استخدام الأساليب الآلية الفرصة لتقييم أداء النماذج بهدف إثبات فعاليتها من الناحية الكمية، ويمكن استخدام مقاييس، مثل: الاستدعاء والدقة، أو عدد الإنذارات الكاذبة، للمساهمة في تقييمات التناسب. ويعد هذا التحقق الكمي شرطًا أساسيًّا لتحديد مدى فعالية النماذج التنبؤية العملية المستخدمة. 3- يمكن العمل من خلال الذكاء الاصطناعي على تطوير مصادر منفصلة لجمع المعلومات والتحقق من صحة النتائج، بدلًا من المركزية المعتمدة على نظام واحد يضع جميع الأفراد -سواء الإرهابيون أو المعرضون للتطرف- في سلة واحدة، كما يمكن أيضًا تطوير النماذج وتطبيقها على مجموعات بيانات خاصة مختلفة، واختبار نتائج هذه النماذج ثم دمجها مركزيًا في النظام. 4- من الممكن إصدار مقاييس كمية لأداء النماذج دون تعريض الأمان التشغيلي للخطر، بحيث يمكن إتاحة المعلومات بهدف طمأنة المخاوف، إذ توفر المعايير الكمية مقياسًا للشفافية التقنية، كما يمكن أن يؤدي تبادل المعايير الكمية إلى تسهيل الثقة وتهيئة الظروف لتبادل المعلومات بشكل أفضل بين الجهات الفاعلة والوكالات الدولية. بالإضافة إلى ذلك من المهم أيضًا تعزيز شفافية الإطار القانوني الذي يتم من خلال إجراء التحليل التنبؤي لتحسين أداء النماذج، وتحقيق فهم واضح ومتسق لماهية التحليل وسببه. ثانيًا- المخاطر: 1- بصرف النظر عن مدى تطور الذكاء الاصطناعي، أو عن مدى إتاحة البيانات؛ فإن التنبؤ بالهجمات بدقة كافية قد يثبت أنه غير دقيق، خاصة أن مسألة تحديد الإرهابيين أو التنبؤ بالإرهاب باستخدام الأساليب الحسابية وحدها، فضلًا عن بعض القيود التقنية مثل القابلية للتأثر بالعداء وعدم فهم السياق؛ كل هذا يضع قيودًا لا نهائية على كيفية استخدام الذكاء الاصطناعي في التنبؤ بالإرهاب. لذا يجب اقتراح الطرق وتجربتها وتقييمها مسبقًا، بل الاستغناء عنها إذا لم يتم الحصول على قيمة تنبؤية كافية. 2- بالرغم من أن التحليل الآلي قد يقلل من اقتحام الخصوصية على المستوى الفردي، فإنه يؤدي أيضًا إلى احتمال أن يشعر الجميع وكأنهم مراقبون في جميع الأوقات. ولهذا السبب يمكن أن تكون للتحليل الآلي تكاليف أعلى للحقوق الأخرى، مثل حقوق التعبير وتكوين الجمعيات، والتي ستكون أكثر حدة عندما يتم تجميع التغييرات السلوكية الفردية على المستوى المجتمعي. 3- توجد مخاوف من أن "تزايد توافر البيانات قد يؤدي إلى تآكل المعايير الحالية المرتبطة بإثبات التهم، وهو ما يستدعي ضرورة فهم أن مخرجات أي نموذج تنبؤي تمثل دائمًا الاحتمال وليس الدليل. وبالتالي، فإن التدخلات التي تتم على أساس النمذجة التنبؤية يجب أن تستند في النهاية إلى قرار بشري يتخذه شخص على دراية كافية بحدود وقدرات النموذج المستخدم. 4- التخوف من تعميم استخدام أنظمة الذكاء الاصطناعي المصممة لمكافحة الإرهاب في مكافحة الجرائم الأخرى، مثل النظام التابع لإدارة شرطة مدينة نيويورك الذي قام بدمج 3000 كاميرا CCTV وANPR إلى جانب أجهزة استشعار أخرى، لما له من قيمة في مكافحة الإرهاب لكنه لم يُستخدم كثيرَا في هذا الغرض، وتم استخدامه للأغراض العامة. 5- التخوف من إساءة استخدام الذكاء الاصطناعي في تحقيق الأغراض السياسية للحكومات خاصة في النظم السلطوية، وهو ما يجعل من الضروري تنظيم استخدام البيانات بشكل أكبر لإضفاء الطابع الرسمي على تقييمات التناسب وتحليل البيانات وتعزيز الشفافية. ختامًا، يمكن القول إن الذكاء الاصطناعي ليس جيدًا أو سيئًا بطبيعته، لكنه يتوقف على طريقة استخدامه، ويبدو من غير المرجح أن تحمي الترتيبات الحالية التي تنظم استخدام الذكاء الاصطناعي التنبؤي في مكافحة الإرهاب من إساءة الاستخدام أو تمكين الاستخدام الأكثر فائدة لهذه التقنيات، سواء من حيث الأداء التشغيلي أو التقيد بمبادئ حقوق الإنسان. *مركز المستقبل