النجاح الإخباري - كتب| محمد قطيفان - مهندس تكنولوجيا المعلومات والاتصالات ومحلل بيانات وباحث في الذكاء الاصطناعي ترجمة| حنين بكر
يمكن للعالم وقف الحرب المدعومة بالذكاء الاصطناعي من خلال حث الاتحاد الأوروبي على حظر الأنظمة العسكرية التي تعتبر الخسائر في صفوف المدنيين “خسائر مقبولة”، لأن تبرير ذلك بعبارة “الآلة فعلتها ببرود” ليس مجرد موقف غير أخلاقي، بل يشكل سابقة خطيرة لمستقبل الحروب.
الفلسطينيون وسط الركام بعد تدمير منازلهم جراء غارة إسرائيلية على رفح في 18 مارس 2024 (عبد الرحيم خطيب)
تشكل قصص الفلسطينيين الأبرياء الذين وقعوا ضحايا للعمليات المدعومة بالذكاء الاصطناعي شهادة مروعة على الأثر الكارثي لهذه التكنولوجيا. فقد وثّقت التقارير مقتل عائلات بأكملها، حيث كان معظم الضحايا من النساء والأطفال، مما يجعل الأرقام أكثر إنسانية من خلال إظهار الأسماء والقصص وراءها. ومع استمرار العدوان، تفيد التقارير بأن أكثر من 70% من الضحايا في غزة هم نساء وأطفال.
استخدام إسرائيل للذكاء الاصطناعي لاستهداف المدنيين
في المأساة المستمرة في غزة، يواجه الجيش الإسرائيلي انتقادات حادة بسبب اعتماده على الذكاء الاصطناعي في العمليات الحربية، خصوصًا عبر استخدام قواعد بيانات غير مختبرة تعمل بالذكاء الاصطناعي لاستهداف المدنيين. وتفيد التقارير بأن هذه الأدوات الرقمية، والتي تفتقر إلى الإشراف البشري الحقيقي، مسؤولة عن إعداد قوائم اغتيال تضم آلاف الفلسطينيين، ومن بينهم عدد كبير من المدنيين الأبرياء.
تتفاقم المخاوف الأخلاقية المحيطة بالحرب المدعومة بالذكاء الاصطناعي بسبب تورط شركات التكنولوجيا الكبرى. فقد تم اتهام كل من مايكروسوفت، وجوجل، وآي بي إم وغيرها من الشركات بتوفير البنية التكنولوجية التي تتيح تنفيذ هذه العمليات. وعلى وجه الخصوص، تعرضت مايكروسوفت لانتقادات شديدة بسبب تقديمها خدمات الحوسبة السحابية وقدرات الذكاء الاصطناعي للجيش الإسرائيلي، مما ساعد في تشغيل أنظمة مثل “لافندر” التي تُستخدم في العمليات العسكرية الحية.
علاوة على ذلك، فإن تعاون مايكروسوفت مع “أوبن أي آي” (OpenAI) لتوفير تقنيات GPT-4 يثير المزيد من المخاوف الأخلاقية، خاصة أن أوبن أي آي تفرض قيودًا صارمة ضد الاستخدام العسكري لتقنياتها. هذا التورط في المجهود الحربي أثار دعوات متزايدة لمزيد من الرقابة والمساءلة على هذه الشركات.
دور الشركات الأوروبية في الحرب المدعومة بالذكاء الاصطناعي
كذلك، تورطت عدة شركات تكنولوجية أوروبية في دعم العمليات العسكرية الإسرائيلية من خلال تقديم تقنيات الذكاء الاصطناعي. ومن بين هذه الشركات:
• إلبيت سيستمز إنترناشونال (Elbit Systems International)
• إيرباص (Airbus) – فرنسا
• تاليس (Thales) – فرنسا
• ليوناردو (Leonardo) – إيطاليا
تلعب هذه الشركات دورًا رئيسيًا في تزويد إسرائيل بتقنيات الذكاء الاصطناعي المستخدمة في الاستطلاع والاتصال وأنظمة الاستهداف التي تساعد بشكل مباشر في العمليات العسكرية داخل غزة. وتثير هذه التقنيات مخاوف أخلاقية كبيرة لأنها تسهم في تنفيذ ضربات تؤدي إلى سقوط أعداد هائلة من الضحايا المدنيين.
إحصائيات صادمة عن عدد الضحايا
وفقًا لوزارة الصحة الفلسطينية في غزة، فقد بلغ عدد الشهداء والمفقودين 57,136 شخصًا، منهم أكثر من 70% من النساء والأطفال. كما تم إبادة 1,600 عائلة فلسطينية بالكامل على يد "الجيش الإسرائيلي"، حيث قُتل جميع أفرادها وتم محوها من السجلات المدنية. بالإضافة إلى ذلك، تعرضت 3,471 عائلة فلسطينية لدمار شامل، ولم ينجُ منها سوى فرد واحد فقط.
استخدام الذكاء الاصطناعي في تحديد الأهداف وتنفيذ الضربات الجوية أدى إلى عواقب وخيمة، حيث تم القضاء على عائلات بأكملها، وارتفع عدد الشهداء بمعدلات مخيفة. الآلات، وليس البشر، هي من تقرر من يعيش ومن يموت.
امرأة تنشر غسيلها على منزل متضرر في الشجاعية، مدينة غزة، في 17 فبراير 2025 (مجدي فتحي).
شهادة مروعة من غزة:
“ركضتُ نحو المنزل ورأيتُ الدمار في كل مكان. لم أصدق أن الجميع كانوا تحت الأنقاض. لقد سُوِّيَ المنزل بالأرض، وتحوّلت جثث عائلتي إلى أشلاء.”
— من شهادة سليمان النجار لـمنظمة العفو الدولية.
الذكاء الاصطناعي وانتهاك القانون الدولي
تشير التقارير إلى أنه في المراحل الأولى من العدوان الحالي، سمح النظام العسكري الإسرائيلي بقتل ما يصل إلى 15-20 مدنيًا مقابل استهداف عنصر واحد فقط من حركة حماس. وفي بعض الحالات، قتل أكثر من 100 مدني في غارة واحدة استهدفت قائدًا عسكريًا.
تحذر المنظمات الحقوقية من أن هذه الأنظمة غير المختبرة قد تخرق القانون الإنساني الدولي. فقد وجدت هيومن رايتس ووتش أن أربعة أنظمة رقمية يستخدمها الجيش الإسرائيلي تعتمد على بيانات غير دقيقة، مما يزيد من احتمال ارتكاب جرائم حرب.
التطهير العرقي واستهداف الكفاءات العلمية
تُجَهَّزُ القبور لدفن الفلسطينيين الذين استشهدوا في غارة إسرائيلية ليلية على رفح في 21 فبراير 2024 (سعيد خطيب).
أحد الجوانب الأكثر إثارة للقلق في استهداف الفلسطينيين عبر الذكاء الاصطناعي هو أن هذه العمليات لا تميز بين المدنيين والمقاتلين. تشير التقارير إلى أن “لافندر”، نظام الذكاء الاصطناعي المستخدم من قبل إسرائيل، يولد قوائم اغتيال استنادًا إلى أنماط غير دقيقة، مما يؤدي إلى استهداف أطباء، أكاديميين، وعمال مهرة يشكلون العمود الفقري لإعادة بناء المجتمع.
أمثلة على المدنيين الذين استهدفوا بشكل خاطئ:
• د. سعيد محمد خرشيد، طبيب عيون معروف في غزة، قُتل مع إخوته، وزوجاتهم، وأطفالهم، وأحفادهم في غارة جوية يوم 18 أكتوبر 2023، مما أدى إلى محو عائلة خرشيد بالكامل.
• زين النجار، طفل يبلغ من العمر شهرين، كان أصغر فرد في عائلة النجار الموسعة التي فقدت 18 فردًا في غارة إسرائيلية على دير البلح، من بينهم 5 أطفال و3 نساء.
• وفقًا لمنظمة Airwars البريطانية، فقد 393 فردًا من عائلة النجار حياتهم منذ بدء العدوان الإسرائيلي الحالي.
إن السماح للذكاء الاصطناعي بتحديد من يُقتل ومن يُستهدف يشكل سابقة خطيرة في تاريخ الحروب، ويعرض آلاف المدنيين الأبرياء للخطر. يجب على المجتمع الدولي أن يتحرك بسرعة لإدانة هذه الجرائم، ومنع استخدام الذكاء الاصطناعي في العمليات العسكرية التي لا تخضع للرقابة، وإيقاف الشركات المتورطة في تطوير تقنيات تستغلها إسرائيل في الإبادة الجماعية.