الخميس 04 يوليو 2024 الموافق 28 ذو الحجة 1445
رئيس التحرير
حازم عادل
عربى ودولى

6 ضباط استخبارات إسرائيليين يكشفون عن نظام "لافندر" المتسبب في قتل آلاف الفلسطنيين في غزة

الإثنين 13/مايو/2024 - 02:05 م
صورة  أرشيفية
صورة أرشيفية

أوضح تقرير إسرائيلي نشر  في مجلة +972  للكاتب يوفال أبراهام انه  في عام 2021، صدر كتاب باللغة الإنجليزية بعنوان “فريق الإنسان والآلة: كيفية خلق التآزر بين الذكاء البشري والذكاء الاصطناعي الذي سيحدث ثورة في عالمنا” تحت الاسم المستعار للمؤلف “العميد يس”   أنه تم  تصميم آلة خاصة يمكنها معالجة كميات هائلة من البيانات بسرعة لتوليد آلاف "الأهداف" المحتملة لضربات عسكرية في خضم الحرب. 

 

حيث أن الجيش الإسرائيلي قام بتطوير برنامج قائم على الذكاء الاصطناعي يعرف باسم "لافندر"، تم الكشف عنه لأول مرة، وفقًا لستة ضباط استخبارات إسرائيليين، خدموا جميعًا في الجيش خلال الحرب الحالية على قطاع غزة وكان لهم تورط مباشر في استخدام الذكاء الاصطناعي لتحديد أهداف للاغتيال، فقد لعب لافندر دورًا مركزيًا في القصف غير المسبوق على الفلسطينيين  في قطاع غزة، وخاصة في المراحل الأولى من الحرب. 

 

في الواقع، كان تأثيرها على العمليات العسكرية كبيرًا لدرجة أنهم تعاملوا بشكل أساسي مع مخرجات آلة الذكاء الاصطناعي "كما لو كان قرارًا بشريًا".

 

رسميًا، تم تصميم نظام لافندر لتحديد جميع النشطاء المشتبه بهم في الأجنحة العسكرية لحماس والجهاد الإسلامي في فلسطين، بما في ذلك العناصر ذات الرتب المنخفضة، كأهداف محتملة للتفجيرات. 

 

و وفقا لـ مصادر لـ +972 و Local Call أنه خلال الأسابيع الأولى من الحرب، اعتمد الجيش بشكل شبه كامل على لافندر، الذي سجل ما يصل إلى 37000 فلسطيني كمسلحين مشتبه بهم – ومنازلهم – لشن غارات جوية محتملة.

 

 وكانت هناك موافقة شاملة للضباط على اعتماد قوائم القتل التي أعدها لافندر، دون الحاجة إلى التحقق بدقة من سبب قيام الآلة بهذه الاختيارات أو فحص البيانات الاستخباراتية الأولية التي استندت إليها. 

 

وذكر أحد المصادر  للمجلة الاسرائيلية أن الأفراد البشريين غالبًا ما يكونون بمثابة  احداثيات   لقرارات الآلة، مضيفًا أنهم عادةً ما يخصص نحو "20 ثانية" فقط لكل هدف قبل الإذن بالقصف.

 

وكان هذا على الرغم من علمه بأن النظام يرتكب ما يعتبر "أخطاء" في حوالي 10 بالمائة من الحالات، والنتيجة، كما شهدت المصادر، هي أن آلاف الفلسطينيين – معظمهم من النساء والأطفال أو الأشخاص الذين لم يشاركوا في القتال – تم القضاء عليهم بسبب الغارات الجوية الإسرائيلية، خاصة خلال الأسابيع الأولى من الحرب، بسبب الذكاء الاصطناعي. 

الفرق بين نظام لافندر والانجيل 


تنضم آلة Lavender إلى نظام آخر للذكاء الاصطناعي، وهو "The Gospel"،  و الاختلاف هنا يكمن في الأساس بين النظامين في تعريف الهدف: فبينما يشير الإنجيل إلى المباني والمنشآت التي يزعم الجيش أن المسلحين يعملون منها، يحدد لافندر الأشخاص - ويضعهم على قائمة القتل. 

 

وأشار التقرير ان   الجيش  الاسرائيلي قررخلال الأسابيع الأولى من الحرب أنه مقابل كل عنصر من أفراد حماس يقوم لافندر بوضع علامة عليه، يُسمح بقتل ما يصل إلى 15 أو 20 مدنيًا؛أما اذا كان  كان الهدف مسؤولاً كبيراً في حماس برتبة قائد كتيبة أو لواء، فإن الجيش أجاز في عدة مرات قتل أكثر من 100 مدني في اغتيال قائد واحد.