روكب اليوم
هذه الظاهرة التي تُعرف بـ”القتل الخوارزمي ” تمثل نقلة نوعية في تاريخ الحروب، وتثير أسئلة وجودية حول مستقبل الصراع المسلح، وحدود القرار البشري، وأخلاقيات الحرب في عصر التحول الرقمي.
تشير التقديرات إلى أن أكثر من 30 دولة تعمل حاليًا على تطوير أنظمة أسلحة مستقلة. ترتكز هذه الأنظمة على ثلاث ركائز: شبكات استشعار تجمع البيانات من مصادر متعددة، وخوارزميات تعلم آلي قادرة على تحليل الأنماط والتنبؤ بالسلوك، وأنظمة تنفيذ ذاتية تتخذ قراراتها دون الرجوع إلى قائد أو مشغّل بشري.
ما يميز هذه المنظومات هو قدرتها على العمل في بيئات معقدة، حيث يصعب على الإنسان اتخاذ قرارات دقيقة بالسرعة المطلوبة، كما هو الحال في عمليات مكافحة الإرهاب، أو الاشتباكات الحضرية عالية الكثافة.
ولعل أبرز الأمثلة على استخدام هذه التقنيات تجلّى في العمليات الدقيقة التي استهدفت شخصيات إيرانية بارزة في منتصف 2025.
فقد أظهرت الأدلة أن المنصات المستخدمة لم تكن مجرد طائرات مسيرة تقليدية، بل أنظمة قتالية ذكية قادرة على تعقّب الأهداف لأسابيع، وجمع وتحليل كميات ضخمة من البيانات، واختيار التوقيت الأمثل لتنفيذ الضربة استنادًا إلى حسابات دقيقة تأخذ في الحسبان متغيرات كالموقع، والطقس، وحركة المدنيين، وحتى التأثير الإعلامي المتوقع. وصلت دقة بعض هذه العمليات إلى نحو 92%، ما يشير إلى مدى تطور هذه التكنولوجيا.
الجانب الأخطر في هذه المنظومات يكمن في قدرتها على التعلم المستمر. فهي لا تعمل وفق برنامج ثابت، بل تتطور مع الوقت، وتُعدل قراراتها بناءً على تجارب سابقة وبيانات جديدة. هذا يجعلها أكثر كفاءة، لكنه يجعل سلوكها أيضًا أقل قابلية للتنبؤ، بل وقد يتغير جذريًا في ظرف زمني قصير.
خوارزمية اليوم قد تتصرف بشكل مختلف تمامًا بعد أسبوع، رغم أن المهمة هي نفسها. وهنا تبرز إشكالية أخلاقية وقانونية عميقة: من يتحمل المسؤولية إذا ارتكبت هذه الأنظمة خطأً أدى إلى مقتل مدنيين؟ هل المسؤول هو المبرمج؟ أم المشغّل؟ أم الدولة؟ أم أن الذكاء الاصطناعي بات فاعلًا قانونيًا جديدًا غير محدد الهوية أو المسؤولية؟
في هذا السياق، تُعد التجربة الإسرائيلية مثالًا بارزًا على الانتقال من الردع التقليدي إلى ما يمكن تسميته “الردع الخوارزمي”. فبفضل تكامل قدرات الوحدة 8200 المختصة في الحرب الإلكترونية، مع شركات ناشئة في مجال تحليل البيانات والتنبؤ السلوكي، تم تطوير منظومات قادرة على رصد التهديدات وتحليلها وتنفيذ عمليات اغتيال جراحية قبل أن تتبلور التهديدات، أو تتحول إلى خطر فعلي.
هذه الإستراتيجية لا تستهدف الرد على الهجوم، بل منع نشوء التهديد من الأساس، من خلال ما يشبه “القتل الوقائي الحسابي”.
واللافت أن مثل هذه العمليات لا تتطلب وجودًا بشريًا مباشرًا في الميدان، بل تُدار من مراكز رقمية عالية التجهيز، حيث تتم مراقبة الهدف والتأكد من “مطابقة شروط الاستهداف” قبل تنفيذ الضربة في جزء من الثانية.
هذا التحول ليس حكرًا على إسرائيل أو الولايات المتحدة. فالصين وروسيا وتركيا، إلى جانب قوى إقليمية صاعدة، دخلت سباق تطوير نظم قيادة وقتالية خوارزمية.
في بعض الحالات، تم بناء شبكات ذكاء اصطناعي قادرة على التنسيق بين وحدات قتالية مستقلة- برًا وجوًا وبحرًا- دون إشراف بشري مباشر، معتمدة على التحليل الفوري للبيانات القادمة من مجسات متعددة ومصادر استخباراتية آنية.
هذه القدرات تجعل القرار العسكري أسرع من أي استجابة بشرية، لكنها تطرح في المقابل مخاطر جسيمة: ماذا لو تصادمت خوارزميات متنافسة على الأرض؟ هل يمكن أن تندلع حرب بسبب خلل حسابي؟ وماذا لو أصبح قرار الهجوم بيد منظومة لا تفهم الدبلوماسية ولا النوايا؟
الأخطر من ذلك هو انتقال هذه التكنولوجيا إلى جهات غير حكومية. فمع انتشار أدوات البرمجة مفتوحة المصدر، وانخفاض تكاليف الطائرات بدون طيار، يمكن لجماعة مسلحة أو حتى فرد يمتلك المهارات التقنية أن يصمم خوارزمية بدائية تستهدف خصمًا معينًا استنادًا إلى بصمة وجه أو إشارة رقمية.
هذا التوجه يفتح الباب أمام ديمقراطية القتل الرقمي، حيث لا تكون الحرب حكرًا على الجيوش، بل ساحة مفتوحة للمرتزقة والقراصنة والفوضويين.
الحرب لم تعد جسدية فقط، بل أصبحت نفسية ومعلوماتية. في العمليات الحديثة، باتت الهجمات السيبرانية المدعومة بالذكاء الاصطناعي تستهدف تدمير المعنويات، عبر نشر معلومات مضللة، وتصنيع صور وتسجيلات مزيفة، واستخدام الحسابات الوهمية لخلق حالة من البلبلة والشك داخل صفوف العدو.
إنها “حرب ناعمة” تؤثر في وعي الهدف قبل جسده، وتعيد تشكيل بيئة اتخاذ القرار السياسي والأمني من الداخل.
كل هذه التطورات تحدث في ظل غياب إطار قانوني دولي واضح ينظم استخدام الخوارزميات القاتلة.
الاتفاقيات الحالية، وعلى رأسها اتفاقيات جنيف، وُضعت في زمن كانت فيه الحرب فعلًا بشريًا صرفًا. اليوم، لا وجود لأي اتفاقية ملزمة تنظم استخدام أنظمة القتل الذاتي، أو تُلزم الدول بالإفصاح عن خوارزمياتها القتالية، أو حتى بمساءلة المطوّرين.
هناك دعوات لإنشاء “اتفاقية جنيف رقمية” لكن حتى الآن، القوى الكبرى ترفض إخضاع هذه التقنيات لأي قيد يمكن أن يحد من تفوقها الإستراتيجي.
ورغم محاولات بعض الباحثين إدماج قيم أخلاقية داخل الخوارزميات، إلا أن الفشل في تمثيل التعقيد البشري يجعل هذه المحاولات محدودة.
فالخوارزمية لا تفهم الفرق بين طفل وخصم يختبئ بين المدنيين؛ هي تحلل الاحتمالات، وتنفذ عند تجاوز حد معين من “التهديد”. الأخلاق في هذه الحالة تتحول إلى متغير رياضي، لا إلى مبدأ إنساني.
في هذا العالم الجديد، يصبح الإنسان متغيرًا داخل معادلة. لم يعد هو من يتخذ القرار، بل من يتلقى تبعاته. وقد تُحتسب نهايته في تقرير تنبُّئِي لا يقرؤُه إلا الذكاء الاصطناعي.
وهنا تكمن المعضلة الأخطر: إذا لم نضع حدودًا واضحة لما يمكن أن تفعله الآلة، فإننا سنجد أنفسنا نعيش في زمن يُدار فيه القتل بضغط زر، دون ذاكرة، دون ندم، ودون مسؤول.
لقد تجاوزت البشرية مرحلة الأسلحة الذكية الموجهة عن بُعد إلى عصر الأسلحة التي تفكّر وتقرّر بمفردها. مثلًا الطائرات المسيرة في الصراع الروسي الأوكراني لم تكن مجرد وسائل نقل متفجرات، بل تحولت إلى منظومات قتالية مستقلة قادرة على تحليل البيئة الميدانية واتخاذ قرارات تكتيكية دون تدخل بشري.
هذا التحول الجذري يطرح أسئلة وجودية: من يملك السيادة الحقيقية عندما تنتقل قرارات الحرب من القادة العسكريين إلى الخوارزميات؟
الحرب السيبرانية تضيف بعدًا آخر للمشكلة. الخوارزميات لم تعد تقتصر على القتل المادي، بل امتدت إلى القتل المعنوي. تقنيات التزييف العميق (Deepfake) تسمح بتزوير مقاطع فيديو وصوتية واقعية بشكل مخيف، يمكن استخدامها لتدمير سمعة شخصيات أو بث الفوضى في المجتمعات.
في إيران، شهدنا كيف يمكن لهذه التقنيات أن تتحول إلى أسلحة نفسية فتاكة، قادرة على زعزعة الاستقرار الاجتماعي دون إطلاق رصاصة واحدة.
إن المستقبل يطرح سيناريوهات أكثر إثارة للقلق: ماذا لو تطورت أنظمة الذكاء الاصطناعي العسكري إلى درجة إدارة إستراتيجيات كاملة دون تدخل بشري؟ ماذا لو بدأت هذه الأنظمة في تطوير تكتيكاتها الخاصة التي قد تتعارض مع الأهداف السياسية للإنسان؟
الخطر الحقيقي ليس فقط في دقة هذه الأسلحة، بل في فقدان السيطرة عليها.
في الختام، ما نواجهه ليس مجرد تطور تقني، بل لحظة فارقة في تطور الإنسان ذاته. الخوارزميات القاتلة تُجبرنا على إعادة تعريف العلاقة بين البشر والآلة، بين السلطة والمسؤولية، وبين الحرب والعدالة.
إن لم يتحرك المجتمع الدولي بسرعة لصياغة قواعد جديدة تُقيّد هذه القوة، فإن الحروب القادمة لن تكون بين جيوش، بل بين خوارزميات.. ونحن، ببساطة، سنكون أهدافًا رقمية.