امن و استراتيجياتقاريرفي الواجهة

كيف استغلت اسرائيل الذكاء الاصطناعي في حربها ضد الفلسطينيين ؟

كشف تقرير حديث عن استغلال إسرائيل لمحادثات الفلسطينيين على مواقع التواصل الاجتماعي واتصالاتهم لتطوير أداة ذكاء اصطناعي قادرة على الإجابة عن تفاصيل تخصهم من خلال تدريبها على المحادثات العربية، في خطوة أثارت انتقادات بسبب انتهاكها الخصوصية.

استخدم الجيش الإسرائيلي مجموعة بيانات لاتصالات الفلسطينيين ومحادثاتهم، لبناء أداة ذكاء اصطناعي باللغة العربية، مُشابهة لـ”تشات جي.بي.تي” لاستخدامها في قدرات التجسّس، وهو ما أثار جدلا واسعا بشأن المخاطر والأخطاء التي سيرتكبها.

وكشف تحقيق مشترك لصحيفة “الغارديان” البريطانية، ومجلة “+972” وموقع “لوكال كول” العبري أعدّه هاري ديفيس ويوفال أبراهام، أنّ وحدة 8200 قامت بتدريب نموذج ذكاء اصطناعي قادر على فهم اللغة العربية، من خلال استخدام كمية كبيرة من الحوارات الهاتفية والنصية التي تم الحصول عليها من خلال التنصت على الفلسطينيين.

وبحسب مصادر مطلعة على المشروع، فقد بدأت الوحدة ببناء النموذج لإنشاء أداة متطورة تشبه روبوت المحادثة، قادرة على الإجابة على أسئلة حول الأشخاص الذين تراقبهم، وتوفير رؤى حول كميات هائلة من بيانات المراقبة التي تجمعها.

وسرّعت الوحدة التي تقارن قدراتها بوكالة الأمن القومي الأميركية، “أن.أس.إي”، جهودها لتطوير النظام بعد بداية العدوان الإسرائيلي على غزة في أكتوبر 2023. ولا يزال النموذج طور التدريب منذ النصف الثاني من العام الماضي، ولا يعرف إن تم نشره أم لا.

وتثير هذه الأداة جدلا واسعا بسبب ما يمكن أن تحمله من مخاطر وتهديدات، وقال العديد من المسؤولين الأمنيين السابقين في الولايات المتحدة وبريطانيا إنّ جهاز الاستخبارات الإسرائيلي يبدو أنه يجازف بمخاطر أكبر من أقرب حلفائه عند دمج أنظمة جديدة تعتمد على الذكاء الاصطناعي في تحليل الاستخبارات.

وبرز الذكاء الاصطناعي كلاعب مهم في الحرب الحالية.

وقال أحد مسؤولي التجسّس الغربيين السابقين إنّ جمع الاستخبارات العسكرية الإسرائيلية المكثف لمحتوى الاتصالات الفلسطينية سمح لها باستخدام الذكاء الاصطناعي بطرق “لن تكون مقبولة” بين وكالات الاستخبارات في البلدان التي تتمتع برقابة أقوى على استخدام سلطات المراقبة والتعامل مع البيانات الشخصية الحساسة.

واستطاعت حملات مصممة بالذكاء الاصطناعي خلال فترات سابقة الاستحواذ على الاهتمام وتوجيه الأنظار نحوها.

وتشير وكالة أسوشيتد برس إلى أن إسرائيل استخدمت شبكات التواصل الاجتماعي منذ بداية الحرب من أجل “توثيق عنف حماس، ومحنة الرهائن” طوال فترة الحرب.

وفي المقابل انتشرت حملات لصور أو تصاميم استحوذت على خوارزميات شبكات ومنصات التواصل الاجتماعي لتلقي الضوء على مأساة إنسانية يعيشها الفلسطينيون في غزة.

الناشطة الأميركية من أصول فلسطينية، نورا عريقات، وصفت لأسوشيتد برس بعض الحملات والمنشورات التي تنتشر على أنها “رد فعل واستجابة غريزية لفشل النظام الدولي في القيام بعمله.”

وتشير عريقات وهي أكاديمية في جامعة روتجرز في ولاية نيوجيرزي الأميركية إلى أن ما نراه عبر هذه المنصات “مجرد تدفق للغضب والإحباط في وقت واحد، وإدانة عالمية لقدرة المؤسسات الدولية على ممارسة ضغط حقيقي على إسرائيل.”

لقد أوضحت الصور من الحرب بين إسرائيل وحماس بشكل واضح ومؤلم إمكانات الذكاء الاصطناعي كأداة دعائية، تُستخدم لإنشاء صور واقعية للمذبحة. وتم استخدام المزاعم المعدلة رقميًا المنتشرة على وسائل التواصل الاجتماعي لتقديم ادعاءات كاذبة حول المسؤولية عن الضحايا أو لخداع الناس بشأن الفظائع التي لم تحدث أبدًا.

في حين أن معظم الادعاءات الكاذبة المتداولة عبر الإنترنت حول الحرب لم تتطلب الذكاء الاصطناعي لإنشائها وجاءت من مصادر أكثر تقليدية، فإن التقدم التكنولوجي يأتي بتواتر متزايد وقليل من الإشراف. وهذا جعل إمكانات الذكاء الاصطناعي لتصبح شكلاً آخر من الأسلحة واضحة تمامًا، وقدم لمحة عمّا سيأتي خلال الصراعات المستقبلية والانتخابات وغيرها من الأحداث الكبرى.

قال جان كلود جولدنشتاين، الرئيس التنفيذي لشركة CREOpoint، وهي شركة تكنولوجيا مقرها سان فرانسيسكو وباريس تستخدم الذكاء الاصطناعي لتقييم صحة الادعاءات عبر الإنترنت “سوف تسوء الأمور – أسوأ بكثير – قبل أن تتحسن.” وأنشأت الشركة قاعدة بيانات لأكثر مقاطع الفيديو المزيفة انتشارًا والتي ظهرت من غزة. وقال “الصور والفيديو والصوت: مع الذكاء الاصطناعي التوليدي، سيكون الأمر تصعيدًيا لم تره من قبل.”

وفي بعض الحالات، تمت إعادة استخدام صور من صراعات أو كوارث أخرى وتمريرها على أنها جديدة. وفي حالات أخرى، تم استخدام برامج الذكاء الاصطناعي التوليدي لإنشاء صور من الصفر، مثل صورة طفل يبكي وسط حطام القصف والتي انتشرت على نطاق واسع في الأيام الأولى للصراع.

وتتضمن الأمثلة الأخرى للصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي مقاطع فيديو تُظهر ضربات صاروخية إسرائيلية مزعومة، أو دبابات تتجوّل عبر الأحياء المدمرة، أو أسر تبحث بين الأنقاض عن ناجين. وفي الكثير من الحالات، يبدو أن الصور المزيفة مصممة لإثارة رد فعل عاطفي قوي من خلال تضمين جثث الأطفال أو العائلات. ففي الأيام الأولى الدموية للحرب، زعم أنصار كل من إسرائيل وحماس أن الجانب الآخر قد ضحى بالأطفال والرضع؛ وقدمت صور مزيفة لأطفال يبكون “دليلاً” فوتوغرافيًا تم تقديمه بسرعة كدليل.

وقال عمران أحمد، الرئيس التنفيذي لمركز مكافحة الكراهية الرقمية، وهي منظمة غير ربحية تتبعت المعلومات المضللة من الحرب، إن الدعاة الذين يصنعون مثل هذه الصور ماهرون في استهداف أعمق لدوافع الناس ومخاوفهم. وسواء كان الأمر يتعلق بطفل مزيف، أو صورة حقيقية لرضيع من صراع آخر، فإن التأثير العاطفي على المشاهد هو نفسه.

وكلما كانت الصورة أكثر فظاعة، زادت احتمالية تذكر المستخدم لها ومشاركتها، ونشر المعلومات المضللة عن غير قصد.

“يقال للناس الآن: انظروا إلى هذه الصورة لطفل رضيع”، قال أحمد. “تم تصميم المعلومات المضللة لجعلك تتفاعل معها.”

وعلى نحو مماثل، بدأ المحتوى الخادع الذي تم إنشاؤه بواسطة الذكاء الاصطناعي في الانتشار بعد غزو روسيا لأوكرانيا في عام 2022. وظهر مقطع فيديو معدّل يظهر الرئيس الأوكراني فولوديمير زيلينسكي يأمر الأوكرانيين بالاستسلام. واستمرت مثل هذه الادعاءات في التداول حتى الأسبوع الماضي، مما يُظهر مدى استمرار المعلومات المضللة التي يمكن دحضها بسهولة.

ويوفر كل صراع جديد، أو موسم انتخابي، فرصًا جديدة لمروجي المعلومات المضللة لإظهار أحدث التطورات في الذكاء الاصطناعي. وقد دفع هذا العديد من خبراء الذكاء الاصطناعي وعلماء السياسة إلى التحذير من المخاطر.

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى