بقلم الباحث محمد معاذ والدكتورة نانسي حمادة طرون
في شهر شباط الماضي، جرى الإعلان عن افتتاح مؤتمر الحوار الوطني في العاصمة السورية دمشق. وبعد أيام على كلمة الرئيس السوري أحمد الشرع خلال المؤتمر انتشر على منصات التواصل الاجتماعي مقطع فيديو يُظهر المتحدث باسم الجيش الإسرائيلي أفيخاي أدرعي، وهو يعلّق متهكماً على تلك الكلمة بأسلوب مشابه للمقاطع التي اعتاد أن ينشرها عبر حسابه على منصة إكس[1]. وبعد البحث، لم نجد أي أثر لهذا الفيديو بالذات على صفحة أدرعي، حيث تبين أنه فيديو تم توليده بالذكاء الاصطناعي.
هذا المثال، يُظهر نمطاً ناشئاً كيف يمكن استخدام الذكاء الاصطناعي لخلق معطيات غير صحيحة، وكيف يمكن لهذه التقنية أن يصل بها الأمر إلى التغيير من ديناميكيات الصراع والمشهد برمته.
لفهم هذه التحديات الناشئة ينبغي أولاً معرفة كيفية اختلاف الذكاء الاصطناعي التوليدي عن الذكاء الاصطناعي التقليدي. ففي حين أن الأخيرة يمكن أن تحلّل مجموعات واسعة من المحتوى الموجود، فإن الذكاء الاصطناعي التوليدي يخلق مواد جديدة تمامًا من خلال تعلّم الأنماط من مجموعات بيانات التدريب[2]. بمعنى آخر، فكّر في الأمر كما لو أنه الفرق بين الناقد السينمائي الذي يمكنه تحليل الأفلام وبين المنتج الذي يستطيع إنشاء أفلام جديدة تمامًا بناءً على فهمه للتقنيات السينمائية. وعليه، يعمل الذكاء الاصطناعي التوليدي على إنشاء نصوص وصور وصوت وفيديو مقنعة بشكلٍ متزايدٍ لا يمكن تمييزها تقريبًا عن المحتوى الذي يصنعه البشر. وهذه القدرة تغذي أشكالًا جديدة وخطيرة من التلاعب. ومع ذلك، فإن هذه القدرات نفسها قد تبشر أيضًا بالتخفيف من التضليل، والتحقق من صحة الأدلة الرقمية.
تستخدم أنظمة الذكاء الاصطناعي الأكثر تطوراً اليوم “المحولات” وهي نوع من بنية الشبكة العصبونية التي تحوّل أو تغير سلسلة إدخال إلى سلسلة إخراج، ويمكنها فهم السياقات والعلاقات المعقدة. وتقوم هذه الشبكات العصبونية بمعالجة المعلومات من خلال طبقات متعددة، حيث تقوم كل منها بتنقيح المخرجات بناءً على الأنماط المستفادة من بيانات التدريب[3]. والنتيجة هي محتوى اصطناعي من الصعب تمييزه عن المواد الأصلية.
ماذا عن التهديدات؟
إن هذه القدرة التكنولوجية تخلق ثلاثة تهديدات أساسية يجب على المتخصصين في مجال الأمن وصناع السياسات فهمها:
التهديد الأول يتمثل بالإنتاج الضخم للمحتوى الضار على نطاق غير مسبوق وبتكلفة ضئيلة. فعلى سبيل المثال، في فنزويلا سبق أن جرى الاستعانة بـ”مقدمي الأخبار” الذين تم إنشاؤهم بالذكاء الاصطناعي لنشر الدعاية الحكومية[4]. وقد بدا هؤلاء المذيعون حقيقيين بشكلٍ مقنع، مما يُظهِر كيف يسمح الذكاء الاصطناعي التوليدي بإغراق مصادر المعلومات بمحتوى قد يكون خادعاً وبتكلفة إنتاجية ضئيلة مقارنة بتكاليف الإنتاج التقليدية.
ويأتي التهديد الثاني والذي قد يكون الأكثر خبثًا من تعزيز التخصيص والدقة في تقديم البروباغندا. حيث يمكن لأنظمة الذكاء الاصطناعي التوليدي الحديثة تحليل أنماط السلوك الفردي عبر الإنترنت لإنشاء محتوى مخصص للغاية، ويتماشى مع معتقداتٍ وتحيزاتٍ محددة. ومن الأمثلة على ذلك، نذكر المكالمات الآلية المزيفة التي انتحلت شخصية الرئيس الأمريكي السابق جو بايدن، والتي استهدفت الناخبين في ولاية “نيو هامبشاير” في يناير 2024، قبل الانتخابات الرئاسية التمهيدية[5]. وقد كشفت هذه الحادثة، وهي الأولى من نوعها في الولايات المتحدة كيف يتم توظيف تقنية التزييف العميق في السياسة، والمساهمة في جعل الدعاية أكثر انتشاراً.
أما التهديد الثالث فهو الأكثر إثارة للقلق ويتجلى في قدرة الذكاء الاصطناعي التوليدي على تعطيل بيئات المعلومات على نطاق واسع من خلال ما يسميه الباحثون “التزييف العميق المركب”[6]. وتقوم هذه التقنية على تضمين محتوى اصطناعي داخل المواد الأصلية. وفي هذا السياق، يوضح “إريك هورفيتز” وهو كبير المسؤولين العلميين في مايكروسوفت، كيف أنه في التزييف العميق المركب، يتم إدخال مواد مزيفة ضمن أحداث حقيقية، لتكون القصة مقنعة. بمعنى آخر، يتم حقن محتوى ملفق بين أحداث العالم الحقيقي لتشكيل تصور تم التلاعب به للتاريخ وإكمال القصة، وهذا ما يخلق معطيات يتم فيها حَبك الحقيقة بالتضليل ليتم تشويه المحتوى الحقيقي.
عائد الكذب
تصبح هذه القدرات خطيرة خصوصاً عندما تقترن بما يسميه الخبراء عائد الكذب – وهي ظاهرة حددها الأستاذان “روبرت شيسني” و”دانييل سيترون” حيث قد تسمح تقنية “التزييف العميق المركب” للجهات الفاعلة إلى رفض الأدلة الحقيقية باعتبارها أدلة مصطنعة. وقد واجهت المحاكم حالات تم فيها الطعن في أدلة حقيقية على الانتهاكات الجسيمة باعتبارها “ناتجة عن الذكاء الاصطناعي” من قبل أطراف تسعى إلى التهرب من المساءلة القانونية. وبالتالي، يمكن للمحتوى الاصطناعي إنشاء روايات خاطئة والمساعدة في تشويه سمعة المحتوى الحقيقي.
وفي هذا السياق، نلاحظ أن قدرات الخداع هذه، تشهد تقدماً سريعاً. ففي بوركينافاسو مثلاً، بعد استيلاء الجيش على السلطة، حدد الباحثون شخصيات افتراضية مولدة بالذكاء الاصطناعي تظاهرت بأنها إفريقية – أميركية وعملت على الترويج للحكومة الجديدة[7]. وقد أظهرت تلك الشخصيات كيف يمكن للذكاء الاصطناعي التوليدي أن يتيح إنشاء حركات شعبية مصطنعة، يمكنها التأثير على الرأي العام حجب أصولها الحقيقية.
أدوات واعدة
في حين أن مخاطر إساءة الاستخدام قد تكون خطيرة، إلا أن الذكاء الاصطناعي التوليدي قد يوفر أيضًا أدوات واعدة لمنع التلاعب والاستجابة له، حيث يمكن له أن يلحظ مؤشرات التضليل من خلال المعالجة السريعة لمجموعات البيانات الضخمة المتأتية من وسائل التواصل الاجتماعي ومصادر الأخبار وصور الأقمار الصناعية وغيرها. وهذا ما يعمل عليه، التحالف من أجل مصدر المحتوى والأصالة “C2PA” بين شركات التكنولوجيا من أجل تطوير معايير فنية للمصادقة على مصدر المحتوى[8]. ومع ذلك، فإن تحقيق ذلك، يتطلب أطر سياسات قوية وتعاونًا دوليًا. بما في ذلك بروتوكولات محددة للتعامل مع الأدلة الرقمية التي قد يكون تم التلاعب بها، وتتبّع أصول المحتوى دون المساس بخصوصية المستخدمين. وفي هذا السياق، أنشأت المحكمة الجنائية الدولية آليات جديدة لقبول الأدلة الرقمية من الجمهور وحتى استخدام الذكاء الاصطناعي للمشاركة في تحليل الأدلة، لكن هذه الجهود لا تزال في مراحلها الأولى.
وبالنسبة للمنظمات غير الحكومية العاملة في مناطق الصراع، تبرز عدة خطوات عملية باعتبارها أساسية. ويشمل ذلك بناء المعرفة بالذكاء الاصطناعي من خلال مبادرات التثقيف العام، وتنظيم حلقات عمل حول التوعية حول المخاطر والفرص التي يمكن أن يوفرها الذكاء الاصطناعي التوليدي لا سيما فيما يخص التضليل، بل وإنشاء أطر تعزز الاستخدام المسؤول مع ضمان بقاء المجتمعات المتأثرة بالنزاع في مركز عمليات صنع القرار.
وبالمحصلة، يمكن القول إن مستقبل الوقاية من التضليل يبقي رهن القدرة على التنقل في هذه الجوانب المزدوجة لتقنية الذكاء الاصطناعي لا سيما التوليدي منه. وهذا لا يتطلب حلولاً تكنولوجية فحسب، بل نهجاً شاملاً يجمع بين الابتكار التقني والتعاون الدولي إلى جانب المشاركة المجتمعية.