البحث

الذكاء الاصطناعي.. «الكابوس» الجديد لأجهزة الاستخبارات

الكاتبة: سُكينة السمرة 

 

لم تكن العبارة التي نُشرت مؤخراً على أحد المواقع الموالية لتنظيم "داعش" مجرد حماس عابر، حين كتب أحد المناصرين: "من أفضل مزايا الذكاء الاصطناعي هو أن استخدامه في غاية السهولة. الاستخبارات تخشى توظيفه في التجنيد. إذن، فلنحوّل كابوسهم إلى حقيقة". هذه الكلمات كانت في الواقع إعلان تدشين لمرحلة جديدة من "الإرهاب الرقمي"، حيث لم يعد السلاح مجرد بندقية أو حزام ناسف، بل خوارزمية ذكية قادرة على التفكير والتوسع وتجاوز الحدود التقليدية.

 

سلاح يتجاوز الحدود

اليوم، يقف خبراء الأمن القومي ووكالات التجسس العالمية أمام معضلة وجودية متفاقمة، فالتقنية التي وُجدت لخدمة البشرية، تتحول اليوم إلى أداة بيد المنظمات المتطرفة لتعزيز قدراتها على التجنيد، وفبركة الواقع، وتحسين دقة الهجمات السيبرانية المعقدة. ولم تعد هذه التنظيمات، التي أدركت منذ عقد من الزمان أن منصات التواصل الاجتماعي هي أرض المعركة البديلة للتضليل، غريبة على التكنولوجيا، بل أصبحت اليوم تستغل الذكاء الاصطناعي لكسر حاجز الخبرة التقنية التي كانت تعيق بعض عملياتها سابقاً.

وفي تحقيق حديث لوكالة "أسوشيتد برس"، يرى جون لاليبيرت، الباحث السابق في مجال الثغرات الأمنية بوكالة الأمن القومي، والرئيس التنفيذي الحالي لشركة "كلير فيكتور" للأمن السيبراني، أن الذكاء الاصطناعي جعل الأمور أسهل بكثير بالنسبة لأي خصم، فبفضله باتت الجماعات الصغيرة والمحدودة الموارد قادرة على إحداث تأثيرات عالمية كانت في السابق تتطلب جيوشاً من المبرمجين والمترجمين والمخططين.

وهذا ما أكده باحثون في مجموعة "SITE Intelligence"، حيث رصدوا قيام التنظيم بالفعل بإنتاج تسجيلات صوتية عالية الدقة لقادته يتلون نصوصاً دينية عبر تقنيات التزييف العميق، فضلاً عن تطويع أدوات الترجمة الفورية لنشر الأيديولوجيات المتطرفة بعشرات اللغات في آن واحد.

 

من الدعاية الرقمية إلى التهديد البيولوجي

لكن الطموح الإرهابي لا يتوقف عند حدود الدعاية والترجمة، بل يمتد إلى آفاق أكثر قتامة تتعلق بالعمليات التنفيذية وانتحال الشخصيات. إذ يحذر الخبراء من قدرة هذه الجماعات على تزييف أصوات وصور المسؤولين الحكوميين للوصول إلى شبكات معلومات حساسة، أو كتابة أكواد برمجية معقدة لشن هجمات سيبرانية تشل المرافق الحيوية.

أمّا الأكثر إثارة للقلق هو احتمال استخدام الذكاء الاصطناعي لسد النقص في الخبرة العلمية لدى المتطرفين، مما يساعدهم على إنتاج أسلحة بيولوجية أو كيميائية فتاكة، وهو التهديد الذي أدرجته وزارة الأمن الداخلي الأميركية رسمياً في تقييمها المحدث لتهديدات الأمن القومي كأحد أخطر التحديات المستقبلية.

 

صراع "البقاء للأذكى"

جلسات الاستماع في مجلس النواب الأميركي كشفت عن قيام تنظيمي "الدولة" و"القاعدة" بعقد ورش عمل تدريبية افتراضية لتعليم أنصارهما كيفية تطويع هذه التقنيات. وتالياً أقر مجلس النواب الأميركي تشريعاً يلزم أجهزة الأمن القومي بتقييم مخاطر الذكاء الاصطناعي الإرهابية بشكل سنوي، معتبرين أن الحماية من الاستخدام الخبيث لهذه التقنية لا تختلف في جوهرها عن الاستعداد للهجمات التقليدية.

في مقابل هذا المشهد، دخلت أجهزة الاستخبارات العالمية في سباق التسلح الرقمي، حيث باتت القاعدة الذهبية هي: لا يواجه الذكاء الاصطناعي إلا ذكاءً أقوى منه. فاليوم، تُوظف وكالات الأمن خوارزميات متطورة لمسح المليارات من البيانات في ثوانٍ معدودة، وتوقع التهديدات قبل حدوثها عبر تحليل الأنماط السلوكية، وتتبع تدفقات التمويل المشبوهة في عالم العملات الرقمية.

 

هل تنجح الشركات في لجم الخطر؟

ومع اتساع رقعة هذا الخطر، لم يعد العبء ملقى على عاتق الحكومات والدول وحدها، بل انتقل إلى أروقة شركات التكنولوجيا الكبرى. إذ إن الشركات المطورة لنماذج الذكاء الاصطناعي تواجه اليوم اختباراً أخلاقياً وتاريخياً، فهي مطالبة بوضع أسوار حماية برمجية صارمة تمنع أدواتها من تقديم إجابات تتعلق بصناعة المتفجرات مثلاً أو كتابة أكواد تخريبية.

ومع ذلك، يظل التحدي قائماً في الفجوة بين التقدم التقني السريع وبين التشريعات المنظمة، مما يضع هذه الشركات في مواجهة تساؤل أخلاقي: هل يمكن حماية حرية الابتكار دون أن يتحول هذا الابتكار إلى دليل مساعد في يد إرهابي محتمل؟

 

دخلنا عصراً لم تعد فيه القنبلة هي الخطر الوحيد المحدق بالأمن العالمي، بل قد يكون "أمر رقمي" يكتبه متطرف خلف شاشة، وبات السؤال الملحّ اليوم ليس متى سيصل هؤلاء للتقنية، بل كيف سيواجه العالم تطرفاً بات يمتلك عقل آلة..