
تحذيرات دولية من توظيف الجماعات المتطرفة للذكاء الاصطناعي
المستقلة/- تتزايد المخاوف الدولية بشأن إمكانية استغلال الجماعات المتطرفة لتقنيات الذكاء الاصطناعي، في ظل التطور السريع الذي تشهده هذه التكنولوجيا واتساع نطاق استخدامها في مختلف المجالات.
ويحذر خبراء أمنيون وتقنيون من أن هذه الأدوات المتقدمة قد تمنح التنظيمات المتشددة قدرات غير مسبوقة في مجالات التجنيد، ونشر الدعاية، والتضليل الإعلامي، بل وحتى التخطيط للعمليات.
ويشير مختصون إلى أن الجماعات المتطرفة أظهرت تاريخيًا قدرة عالية على التكيف مع التقنيات الحديثة، بدءًا من استخدام الإنترنت ووسائل التواصل الاجتماعي، وصولًا إلى استغلال التطبيقات المشفرة. ومع الانتشار المتزايد لأدوات الذكاء الاصطناعي، تتعاظم المخاوف من انتقال هذه الجماعات إلى مرحلة أكثر تطورًا في نشاطها الرقمي.
وتتمثل أبرز المخاطر في استخدام تقنيات الذكاء الاصطناعي لتوليد محتوى دعائي متقن يصعب تمييزه عن المحتوى الحقيقي، بما في ذلك النصوص، والصور، ومقاطع الفيديو المزيفة المعروفة بـ”التزييف العميق”. ويرى خبراء أن هذه الأدوات قد تساهم في تضليل الرأي العام، وتزييف خطابات لقيادات سياسية أو دينية، ما قد يؤدي إلى إثارة الفتن أو زعزعة الاستقرار المجتمعي.
كما يُحذر من توظيف الذكاء الاصطناعي في عمليات التجنيد، عبر تحليل البيانات السلوكية للمستخدمين على المنصات الرقمية واستهداف الفئات الأكثر عرضة للتطرف بخطاب مخصص يتناسب مع ميولهم النفسية والفكرية. ويعتبر هذا التطور نقلة نوعية مقارنة بأساليب التجنيد التقليدية، التي كانت تعتمد على رسائل عامة أقل دقة.
وفي الجانب الأمني، تثير بعض التقارير مخاوف من إمكانية استخدام أدوات الذكاء الاصطناعي في جمع المعلومات وتحليلها، أو في محاكاة سيناريوهات الهجمات، ما قد يسهم في تحسين كفاءة التخطيط لدى الجماعات المتطرفة. ورغم عدم وجود دلائل مؤكدة على استخدام واسع لهذه التقنيات في تنفيذ عمليات ميدانية، إلا أن الخبراء يرون أن الخطر يكمن في المستقبل القريب إذا لم تُفرض ضوابط صارمة.
في المقابل، تؤكد جهات رسمية أن الذكاء الاصطناعي يمكن أن يكون أداة فعالة في مواجهة التطرف، من خلال رصد المحتوى المتشدد، وتحليل أنماط النشاط المشبوه على الإنترنت، وتعزيز قدرات الاستخبارات الرقمية. إلا أن هذا الاستخدام الإيجابي يتطلب تنسيقًا دوليًا وتشريعات واضحة توازن بين الأمن وحماية الخصوصية.
ويرى مراقبون أن التحدي الحقيقي لا يكمن في التكنولوجيا نفسها، بل في كيفية إدارتها وتنظيمها. ومع استمرار السباق العالمي لتطوير الذكاء الاصطناعي، تتزايد الدعوات لوضع أطر قانونية وأخلاقية تحد من إساءة استخدامه، وتمنع وقوعه في أيدي الجماعات المتطرفة.
وتبقى هذه المخاوف جزءًا من نقاش عالمي أوسع حول مستقبل الذكاء الاصطناعي، في وقت تتسارع فيه الابتكارات التقنية بوتيرة تفوق قدرة التشريعات على مواكبتها، ما يضع المجتمع الدولي أمام اختبار حقيقي في كيفية توظيف هذه الأدوات دون أن تتحول إلى تهديد للأمن والاستقرار.





