الثلاثاء 17 فبراير 2026
booked.net

البنتاجون يهدد بقطع العلاقات مع Anthropic بسبب خلافات حول "الأسلحة المستقلة"

البنتاغون
البنتاغون

اندلعت أزمة حادة بين وزارة الدفاع الأمريكية (البنتاغون) وشركة Anthropic الرائدة في مجال الذكاء الاصطناعي، في سابقة قد تعيد تشكيل العلاقة بين وادي السيليكون والمؤسسة العسكرية.

وتتمحور الخلافات حول إصرار الشركة التكنولوجية على وضع قيود صارمة تمنع استخدام نماذجها الذكية في تطوير أسلحة ذاتية التشغيل أو في عمليات المراقبة الجماعية، وهو ما يراه الجيش الأمريكي عائقًا أمام تفوقه الاستراتيجي.

وفقًا لتقرير نشره موقع "The Decoder" نقلًا عن مصادر مطلعة، يدرس البنتاجون إنهاء شراكته مع Anthropic إذا استمرت في رفض منح الجيش "وصولًا غير مقيد" لنماذجها المتطورة مثل Claude.

وتشير التقارير إلى أن شركات منافسة مثل OpenAI وGoogle أبدت مرونة أكبر في التعاون مع وزارة الدفاع، حيث وافقت على إزالة بعض حواجز الحماية المعتادة في العقود العسكرية، وترى Anthropic أن استخدام الذكاء الاصطناعي في اتخاذ قرارات القتل دون تدخل بشري يمثل خطًا أحمر أخلاقيًا لا يمكن تجاوزه.

تُسلط هذه المواجهة الضوء على المعضلة الأخلاقية الكبرى في عصر الذكاء الاصطناعي: التوازن بين الأمن القومي والمسؤولية الأخلاقية. فبينما يسعى الجيش الأمريكي لدمج أحدث التقنيات للحفاظ على تفوقه العسكري في مواجهة قوى عالمية أخرى، تتمسك بعض شركات التكنولوجيا بمبادئ "الذكاء الاصطناعي الآمن" لتجنب سيناريوهات كارثية،وقد تؤدي نتيجة هذا الخلاف إلى تحول كبير في خارطة التحالفات بين شركات التكنولوجيا والحكومات.

جوهر الخلاف الأخلاقي
تشترط Anthropic ضمانات تمنع استخدام تقنياتها في الأسلحة المستقلة تمامًا والمراقبة الداخلية، بينما يطالب البنتاغون بمرونة كاملة للأغراض "القانونية"، ويضع هذا الموقف Anthropic في عزلة محتملة مقارنة بمنافسيها الذين يسعون للفوز بعقود دفاعية مليارية، مما قد يؤثر على حصتها السوقية وتمويلها المستقبلي.