تحذير استخباراتي من وقوع الذكاء الاصطناعي بيد جماعات مسلحة

حذّر خبراء في الأمن القومي ووكالات استخبارات من تنامي خطر استخدام الذكاء الاصطناعي من قبل جماعات مسلحة متطرفة، معتبرين أن هذه التقنيات قد تتحول إلى أداة فعالة لتجنيد عناصر جديدة، وإنتاج محتوى مزيف عالي الدقة، وتطوير الهجمات السيبرانية.

وبحسب ما نقلته وكالة «أسوشيتد برس»، يرى مختصون أن تنظيم «داعش» أدرك منذ سنوات القيمة الكبيرة لمنصات التواصل الاجتماعي في نشر الدعاية وتجنيد الأتباع، الأمر الذي يجعل توجهه الحالي نحو اختبار تقنيات الذكاء الاصطناعي خطوة متوقعة في سياق تطوير أدواته.

وخلال الشهر الماضي، دعا شخص نشر محتوى على موقع إلكتروني مؤيد للتنظيم أنصاره إلى دمج الذكاء الاصطناعي في عملياتهم، مشيرًا باللغة الإنجليزية إلى سهولة استخدام هذه التقنيات وقدرتها على تسهيل تنفيذ المهام.

وأعربت بعض الأجهزة الاستخباراتية عن مخاوفها من أن يسهم الذكاء الاصطناعي في تسريع عمليات التجنيد المتطرف، محذرين من تحويل سيناريوهات كانت تُعد في السابق ضربًا من الخيال إلى واقع ملموس.

وفي هذا السياق، قال جون لاليبيرت، الباحث السابق في الثغرات بوكالة الأمن القومي الأميركية والرئيس التنفيذي لشركة «كلير فيكتور» للأمن السيبراني، إن الذكاء الاصطناعي يمنح أي خصم قدرة أكبر على التنفيذ، حتى لو كان يفتقر إلى الموارد المالية، ما يسمح لمجموعات صغيرة بإحداث تأثير واسع.

ومع إطلاق أدوات متقدمة مثل «شات جي بي تي»، بدأت الجماعات المسلحة بالفعل في استغلال الذكاء الاصطناعي، قبل أن يتزايد اعتمادها عليه مؤخرًا لإنتاج صور ومقاطع فيديو تبدو أكثر واقعية وإقناعًا.

ويوضح التقرير أن دمج هذا المحتوى المزيف مع خوارزميات منصات التواصل الاجتماعي يسهم في استقطاب مؤيدين جدد، وإرباك الخصوم، وبث الخوف، ونشر الدعاية على نطاق واسع.

وضمن أمثلة ذلك، أشار التقرير إلى انتشار مقاطع دعائية أُنشئت باستخدام الذكاء الاصطناعي عقب هجوم تبناه تنظيم «داعش» العام الماضي على قاعة حفلات في روسيا، وأسفر عن مقتل 140 شخصًا، حيث استُخدمت هذه المواد لاستقطاب مجندين جدد.

ومن جانبه، أوضح ماركوس فاولر، العميل السابق في وكالة الاستخبارات المركزية الأمريكية والرئيس التنفيذي لشركة «دارك تريس فيدرال» للأمن السيبراني، أن الجماعات المتطرفة لا تزال متأخرة تقنيًا مقارنة بدول مثل الصين وروسيا وإيران، لكنها تسعى باستمرار إلى مواكبة التطورات.

وأضاف فاولر أن التنظيمات المتشددة، وعلى رأسها «داعش»، اعتادت تبني التقنيات الجديدة مبكرًا، مستشهدًا بدخوله المبكر إلى منصة «تويتر» واستغلاله لوسائل التواصل الاجتماعي في حملاته الدعائية.

وفي المجال السيبراني، بات قراصنة الإنترنت يستخدمون بالفعل تقنيات الصوت والفيديو الاصطناعي في هجمات تصيد احتيالي، من خلال انتحال شخصيات مسؤولين كبار في شركات أو حكومات للوصول إلى شبكات حساسة، فضلًا عن استخدام الذكاء الاصطناعي في تطوير برمجيات خبيثة وأتمتة بعض الهجمات.

أما السيناريو الأكثر إثارة للقلق، وفقًا للتقرير، فيتمثل في احتمال لجوء الجماعات المسلحة إلى الذكاء الاصطناعي للمساعدة في إنتاج أسلحة بيولوجية أو كيميائية، لتعويض نقص الخبرة التقنية لديها.

وقد ورد هذا التهديد ضمن «تقييم التهديدات الداخلية» المحدث الصادر عن وزارة الأمن الداخلي الأميركية في وقت سابق من العام الجاري.

وفي مواجهة هذه المخاطر، تحرك مشرعون أمريكيون لطرح مقترحات تهدف إلى الحد من هذا التهديد المتصاعد، من بينها مشروع قدمه السناتور مارك وارنر، كبير الديمقراطيين في لجنة الاستخبارات بمجلس الشيوخ، لتعزيز تبادل المعلومات بين مطوري الذكاء الاصطناعي بشأن إساءة استخدام منتجاتهم من قبل جهات متطرفة أو قراصنة أو جواسيس.

وخلال جلسات استماع حديثة في الكونغرس، اطّلع النواب على معلومات تفيد بأن تنظيمي «داعش» و«القاعدة» عقدا ورش تدريبية لمساعدة أتباعهما على تعلم استخدام أدوات الذكاء الاصطناعي.

واختتم التقرير بالإشارة إلى إقرار مجلس النواب الأميركي الشهر الماضي تشريعًا يلزم مسؤولي وزارة الأمن الداخلي بإجراء تقييم سنوي لمخاطر الذكاء الاصطناعي التي قد تشكلها الجماعات المتطرفة.