|
عربي ودولي
الذكاء الاصطناعي في الحروب.. عندما تصبح الآلة قاضيًا و«جلادًا»
مع تطور التكنولوجيا العسكرية، شق الذكاء الاصطناعي طريقه إلى ساحات القتال، محدثًا تغييرًا جذريًا في أسلوب الحروب فمن غزة إلى أوكرانيا، ساحات ظهرت فيها أسلحة تعتمد على الذكاء الاصطناعي، مما أثار تساؤلات حول المعايير التي تنتهجها هذه الأنظمة في اتخاذ قرارات مثل: متى ومن يجب إطلاق النار عليه؟ تساؤلات أثارت مخاوف، مما دفع صناع السياسات ومنظمات مستقلة إلى المطالبة بضرورة أن يكون هناك بشر في حلقة إدارة تلك الأسلحة، وإعادة صياغة العلاقة بين الإنسان والآلة في الحروب المستقبلية، بحسب صحيفة «فورين أفيرز».
وتسعى الأمم المتحدة إلى حظر الأسلحة المستقلة بالكامل واقترحت قواعد ملزمة دوليًا تتطلب أن يكون هناك إنسان في الحلقة التي تدير مثل هذه الأنظمة. وتبنت العديد من المنظمات غير الحكومية، بما في ذلك Stop Killer Robots، ومعهد مستقبل الحياة، ومنظمة العفو الدولية، قضية السيطرة البشرية على الأسلحة المستقلة.
ورغم أنه من المريح تخيل أن البشر الأحياء سيمنعون الخوارزميات عديمة العقل من القتل بلا تمييز، فإن هذا الإجماع يتناقض مع الواقع التكنولوجي، ذلك أن نماذج الذكاء الاصطناعي التي تحرك الأسلحة المستقلة المعاصرة غالبا ما تكون متطورة للغاية بحيث لا يستطيع حتى أفضل المشغلين تدريبا الإشراف عليها، بحسب الصحيفة الأمريكية.
وفي ظل الظروف العادية، فإن توقع أن يزن الإنسان مزايا تحليل نظام الذكاء الاصطناعي ويقترح مسارات العمل سيكون أمرا صعبا، إلا أن ذلك سيكون مستحيلا في ظل ظروف القتال ــ التي تتسم بالإجهاد الشديد والوقت المحدود والاتصالات المتقطعة أو غير الموجودة بين الأفراد والوحدات والسلطات العليا.
وبالتالي، فبدلا من الاستسلام لـ«الوهم بأن البشر سيكونون قادرين على التحكم في الأسلحة المستقلة في زمن الحرب، يتعين على الجيوش أن تبني الثقة في نماذجها للأسلحة المستقلة الآن ــ في ظل ظروف زمن السلم ــ وتسمح لها بالعمل دون تدخل بشري مفرط عندما يبدأ إطلاق النار»، تقول الصحيفة الأمريكية.
وأشارت إلى أن المنافسة العسكرية بين الولايات المتحدة والصين جعلت تطوير ونشر أنظمة الأسلحة المستقلة أمرا لا مفر منه، حيث تقدم الحرب في أوكرانيا دليلا مبكرا على هذا التحول في النموذج.
وفي الوقت نفسه، تلتزم حكومة الولايات المتحدة بنشر الذكاء الاصطناعي على نطاق واسع وعلى الفور لمجموعة متنوعة من الأغراض الأمنية؛ أبرزها: تحليل الاستخبارات، والسلامة البيولوجية، والأمن السيبراني، وأكثر من ذلك.
وبحسب الصحيفة الأمريكية، فإن الأتمتة والذكاء الاصطناعي والطائرات بدون طيار هي مكونات أساسية لأحدث مفاهيم العمليات في الخدمات العسكرية الأمريكية تقريبًا: تصميم قوة مشاة البحرية 2030، والعمليات البحرية الموزعة للبحرية، وعمليات القتال واسعة النطاق للجيش، ومفهوم التشغيل المستقبلي للقوات الجوية.
كل هذه تعتمد بدورها على مبادرة مستمرة أطلقت في عام 2022 والمعروفة باسم القيادة والتحكم المشترك لجميع المجالات، والتي تكلفت 1.4 مليار دولار في عام 2024 وحده.
ووفقًا لوزارة الدفاع الأمريكية، يهدف البرنامج إلى ربط «كل جهاز استشعار وكل مطلق نار، من أجل اكتشاف وجمع وربط وتجميع ومعالجة واستغلال البيانات من جميع المجالات والمصادر، وبالتالي إنشاء نسيج بيانات» موحد.
إلا أنه من منظور أخلاقي، يخشى العديد من المراقبين أنه في غياب الرقابة، قد تنطلق الآلات غير المفكرة في فوضى، وتنتهك المبادئ العريقة مثل التناسب (الذي يملي ألا يتجاوز الضرر الذي يفرضه العمل العسكري فوائده) والتمييز (الذي يفرض على الجيوش التمييز بين المقاتلين والمدنيين). ويخشى آخرون أن تستغل الأنظمة المستقلة السكان الضعفاء بسبب التحيزات في بيانات التدريب الخاصة بهاـ أو أن تقوم جهات غير حكومية باختراق أو سرقة الأسلحة المستقلة واستخدامها لأغراض خبيثة.
وزعم منتقدو الأسلحة المستقلة، أن البشر يدمجون سياقًا أوسع في قراراتهم، مما يجعلهم أفضل في التعامل مع الجديد أو الفوضى، في حين تظل الآلات ملتزمة بنص الأوامر.
ويثق قليل من الناس في الآلات في اتخاذ قرارات خطيرة مثل القتل، أو توسيع نطاق الحملة العسكرية. حتى الآن، ترتكز افتراضات معظم المحللين على حالات لا تُنسى من خطأ الحاسوب، مثل حوادث السيارات ذاتية القيادة أو «هلوسة» الدردشة الآلية. ويفترض الكثير منهم أن البشر أقل عرضة لسفك الدماء دون داعٍ أو تصعيد الصراع.
وتدعم هذه الحجج الأخلاقية والعملية الحقيقة الأساسية المتمثلة في أن حتى أكثر الأنظمة المستقلة تقدماً مع الذكاء الاصطناعي سوف ترتكب أخطاء، إلا أنه مع ذلك، فقد تقدم الذكاء الاصطناعي إلى النقطة التي أصبح فيها التحكم البشري في كثير من الأحيان اسمياً أكثر من كونه حقيقياً، بحسب الصحيفة الأمريكية.
تقول «فورين أفيرز»، إن الشعور المتضخم بقدرة البشر على التحكم في الذكاء الاصطناعي من شأنه أن يؤدي في الواقع إلى تفاقم المخاطر ذاتها التي يخشاها المنتقدون.
وأشارت إلى أن الوهم بأن البشر سيكونون قادرين على التدخل في سيناريوهات قتالية مستقبلية تعد بالتوتر الشديد والسرعة العالية ــ وخلالها سوف تتدهور الاتصالات أو تتقطع ــ يمنع صناع السياسات والعسكريين ومصممي الأنظمة من اتخاذ الخطوات اللازمة لابتكار واختبار وتقييم أنظمة مستقلة آمنة الآن.
وأكدت أن إرغام البشر على التدخل في القرارات التكتيكية لن يجعل القتل أكثر أخلاقية في الحروب التي تعتمد على الذكاء الاصطناعي، فلقد استخدمت الجيوش الحديثة منذ فترة طويلة أنظمة ذات أشكال مختلفة من الاستقلالية التدريجية، مثل نظام Aegis Combat System التابع للبحرية، مع مستويات متميزة من السلطة البشرية المطلوبة لإطلاق الأسلحة.
لكن قرار المشغل البشري بإطلاق الأسلحة يعتمد على نظام حاسوب يحلل البيانات الواردة ويولد قائمة من الخيارات. في هذه البيئة، يكون الاختيار البشري، مع الحكم الأخلاقي المقابل، بمثابة ختم مطاطي أكثر منه قرارًا مستنيرًا: يثق المشغل بالفعل في أجهزة الاستشعار التي جمعت البيانات والأنظمة التي حللتها وحددت الأهداف.
وأشارت إلى أن الحروب المستقبلية التي تعتمد على الذكاء الاصطناعي ستكون أسرع وأكثر اعتمادا على البيانات، حيث يمكن نشر أنظمة الأسلحة التي تعتمد على الذكاء الاصطناعي (على سبيل المثال أسراب الطائرات بدون طيار) بسرعة وعلى نطاق واسع، ولن يكون لدى البشر الوقت ولا القدرة المعرفية لتقييم هذه البيانات بشكل مستقل عن الآلة.
واستدلت على قولها، باستخدام إسرائيل نظام توليد أهداف مدعوم بالذكاء الاصطناعي أثناء الحرب في غزة. وهذا النظام، الذي يستخدم مئات الآلاف من التفاصيل لتصنيف الأهداف على أنها معادية، متطور للغاية بحيث لا يمكنه التكهن عندما يتعين اتخاذ القرارات في دقائق أو ثوانٍ.
بالإضافة إلى ذلك، لم يعد التحكم البشري أفضل من منظور عملي، فمن البديهي أن البشر لا يمتلكون سياقًا أكثر من الآلات، وفي عصر الذكاء الاصطناعي، سيكون لديهم غالبًا سياق أقل بكثير.
وقد اقترح صناع السياسات والقادة العسكريون إبطاء وتقليص استخدام أو تعقيد الأنظمة المستقلة لمواكبة السرعة البشرية، فيما يشيد آخرون من دعاة السيطرة البشرية الأكبر بأهمية تدريب المشغلين بشكل أفضل، إلا أن هذا لا يمكنه أن يوفر سوى مكاسب هامشية، حيث تتجاوز أنظمة الذكاء الاصطناعي بشكل متزايد حدود القوة المعرفية البشرية بينما تتزايد كمية البيانات المولدة بشكل كبير.
ويزعم كبار المسؤولين الدفاعيين الأمريكيين، أن أنظمة الذكاء الاصطناعي العسكرية ينبغي لها أن تقدم اقتراحات فقط بدلاً من اتخاذ إجراءات مباشرة. ورغم أنه من السهل أن نتخيل كيف يمكن للمركبات الجوية غير المأهولة، على سبيل المثال، أن تسافر بشكل مستقل إلى أهدافها ثم تنخرط في القتال فقط إذا أمرها البشر بذلك، فإن هذا يكذب كيف تعمل الحرب التي تعتمد على الذكاء الاصطناعي في الواقع.
وقد أظهر الصراع في أوكرانيا أنه مع انتشار المركبات الجوية غير المأهولة، انتشرت أيضا أنظمة تشويش اتصالاتها مع المشغلين؛ وقد أجبر هذا الأوكرانيين على تبني مستويات متزايدة من تلك الأسلحة.
وتقول فورين أفيرز، إنه على صناع السياسات أن يتبنوا نهجاً واقعياً في التعامل مع أنظمة الأسلحة ذاتية التشغيل ــ وهو النهج الذي قد يثبت أنه أكثر أخلاقية، ما يتطلب من الحكومات:
ضمان أن القرارات البشرية الأساسية، مثل تلك المتعلقة بالتناسب والتمييز، لا تُتَّخَذ في زمن الحرب، عندما لا يكون هناك وقت للتفكير، بل في زمن السلم، عندما يصبح من الممكن الاستعانة برأي الخبراء، والنقاش الديمقراطي، والإشراف رفيع المستوى.
أن تعترف بأن حتى أكثر أنظمة الذكاء الاصطناعي تطورا لن تكون دائما على حق. والحد من تأثير الإخفاقات من خلال الكشف عنها في وقت مبكر والتعلم منها أمر بالغ الأهمية لتطوير النظام بحيث يظل عمليًا وأخلاقيًا.
على المقاولين العسكريين والجيش بناء الثقة في الأنظمة المستقلة الآن. فمن خلال تقديم الأدلة على أن الأنظمة الحالية تعمل كما هو متوقع، يمكنهم تمهيد الطريق للحرب للعمل بسرعة الآلات في وقت لاحق.
مشاهدة الذكاء الاصطناعي في الحروب.. عندما تصبح الآلة قاضيًا و«جلادًا»
يذكر بـأن الموضوع التابع لـ الذكاء الاصطناعي في الحروب.. عندما تصبح الآلة قاضيًا و«جلادًا» قد تم نشرة ومتواجد على العين وقد قام فريق التحرير في مصادر 24 بالتاكد منه وربما تم التعديل علية وربما قد يكون تم نقله بالكامل اوالاقتباس منه ويمكنك قراءة ومتابعة مستجدادت هذا الخبر او الموضوع من مصدره الاساسي.