تتصاعد المخاوف العالمية في فبراير 2026 من سباق محتدم تخوضه التنظيمات الإرهابية لاستغلال طفرة الذكاء الاصطناعي في ترويج الفكر المتطرف، وحذر جوناثان هول، المراجع المستقل لتشريعات مكافحة الإرهاب، اليوم الثلاثاء 24 فبراير 2026، من “موجة قادمة” ستسخر هذه الأدوات لتعزيز الدعاية الإرهابية والمساعدة في التحضير للهجمات، مشيراً إلى رصد تحركات فعلية لفرع تنظيم “داعش خراسان” في هذا المسار الخطير.
| المجال | تفاصيل التهديد (تحديث فبراير 2026) |
|---|---|
| الأداة المستخدمة | روبوتات الدردشة (Chatbots) المخصصة مثل “المجاهد المسؤول”. |
| الهدف الرئيسي | تجاوز الرقابة الأمنية، الاستقطاب بلغات متعددة، والوعظ الرقمي. |
| الجهة المحذرة | مكتب مراجعة تشريعات مكافحة الإرهاب + خبراء أمن سيبراني. |
| النطاق الجغرافي | عالمي، مع تركيز على الفضاء السيبراني المفتوح. |
تحذيرات من “موجة إرهاب رقمية” مدعومة بالذكاء الاصطناعي
أكد جوناثان هول أن التطور المتسارع في مجال الذكاء الاصطناعي التوليدي جعل هذه القدرات متاحة للجماعات المتطرفة بشكل “جاهز للاستخدام” بحلول عام 2026، وأبدى تخوفه من انتشار ظاهرة “التطرف عبر برامج الدردشة الآلية”، مشدداً على ضرورة متابعة المسؤولين الحكوميين لهذه التطورات بدقة لمنع إنشاء منصات دردشة إرهابية متكاملة تهدد السلم الدولي.
استراتيجية “داعش خراسان” في تطويع التقنية
كشفت الأعداد الأخيرة من مجلة “صوت خراسان” (الناطقة بالإنجليزية والمحسوبة على فرع التنظيم في أفغانستان) عن تخصيص مساحات واسعة لتدريب الأنصار على استخدام الذكاء الاصطناعي، وتضمنت الاستراتيجية الجديدة ما يلي:
- التوجيه الفني: تقديم نصائح حول استخدام روبوتات الدردشة في الحملات الدعائية والوعظ المزعوم.
- الاحترازات الأمنية: تحذير العناصر من رفع ملفات حساسة أو طلب أحكام دينية من النماذج العامة لتجنب الانكشاف الأمني أمام الأجهزة الاستخباراتية.
- المفاضلة التقنية: التوصية باستخدام أدوات تركز على الخصوصية للهروب من الرقابة الرقمية، مع مهاجمة التقنيات المرتبطة بجهات دولية.
شرعنة التقنية.. من الرفض إلى “الفرض”
في تحول فكري لافت شهده مطلع عام 1447 هجري، انتقل التنظيم من مرحلة الحذر من التكنولوجيا إلى “شرعنتها”، حيث وصفت إصدارات التنظيم الإلمام بالذكاء الاصطناعي بأنه ضرورة ملحة في العالم الرقمي، مشبهة إياه بالواجبات الأساسية، وذلك لضمان التفوق في الفضاء السيبراني الذي وصفوه بأنه مليء بـ “التهديدات الخفية”.
مخاطر الاستقطاب الرقمي وتجاوز الرقابة
يرى خبراء الأمن السيبراني أن هذا التحول يعكس تغييراً في البنية الفكرية للتنظيمات الإرهابية، مما يهدد بآثار طويلة الأمد تشمل:
- تجاوز القيود: القدرة على تخطي الرقابة التقليدية التي تفرضها شركات التكنولوجيا على المحتوى المتطرف.
- الاستهداف المتعدد: استغلال الذكاء الاصطناعي لإنتاج محتوى دعائي بلغات متعددة للوصول إلى شرائح أوسع عالمياً.
- التجنيد الآلي: إطلاق موجة من “الاستقطاب الرقمي” عبر روبوتات محادثة مخصصة لهذا الغرض، مما يصعب مهمة تتبعها أمنياً.
وفي إطار الجهود الوطنية لمكافحة هذه التهديدات، تعمل الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا) بالتعاون مع وزارة الداخلية السعودية على تطوير خوارزميات متقدمة للكشف عن المحتوى المتطرف المنتج آلياً، وضمان حماية الفضاء الرقمي للمملكة من أي اختراقات فكرية أو أمنية.
يُذكر أن تنظيم “داعش خراسان” يخضع لعقوبات دولية واسعة، وقد ارتبط اسمه بعدة هجمات إرهابية في مناطق مختلفة، مما يجعل توجهه نحو الذكاء الاصطناعي تهديداً أمنياً يستوجب استجابة تقنية واستخباراتية مضادة وفورية في عام 2026.
الأسئلة الشائعة (سياق الشارع السعودي)
هل تؤثر هذه التهديدات الرقمية على مستخدمي الإنترنت في السعودية؟
نعم، تستهدف هذه الحملات الفضاء الرقمي العالمي، ولكن الجهات الأمنية في المملكة تفرض رقابة صارمة وتستخدم تقنيات ذكاء اصطناعي مضادة لحماية المواطنين والمقيمين.
كيف يمكنني الإبلاغ عن محتوى مشبوه أو روبوتات دردشة متطرفة؟
يمكنك الإبلاغ فوراً عبر تطبيق “كلنا أمن” التابع لوزارة الداخلية، أو التواصل مع الجهات المختصة عبر القنوات الرسمية.
ما هو دور “سدايا” في مواجهة استغلال الذكاء الاصطناعي إرهابياً؟
تعمل “سدايا” على وضع الأطر الأخلاقية والتقنية لاستخدام الذكاء الاصطناعي، وتطوير أدوات رصد استباقية تمنع استغلال هذه التقنيات في نشر الفكر المتطرف.
المصادر الرسمية للخبر:
- مكتب المراجع المستقل لتشريعات مكافحة الإرهاب (المملكة المتحدة)
- الهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)
- وزارة الداخلية السعودية
- مركز الأمم المتحدة لمكافحة الإرهاب













