تقرير: البنتاجون استخدم Claude AI للقبض على الرئيس الفنزويلى مادورو
تم استخدام أداة الذكاء الاصطناعي "كلود" التابعة لشركة "أنثروبيك" في عملية الجيش الأمريكي للقبض على الرئيس الفنزويلي السابق نيكولاس مادورو، مما يسلط الضوء على كيفية اكتساب نماذج الذكاء الاصطناعي زخمًا في البنتاجون، وفقًا لأشخاص مطلعين على الأمر.
وأضاف التقرير أن نشر "كلود" تم عبر شراكة أنثروبيك مع شركة البيانات "بالانتير تكنولوجيز" (PLTR.O)، التي تُستخدم منصاتها على نطاق واسع من قبل وزارة الدفاع ووكالات إنفاذ القانون الفيدرالية، وفقًا لمصادر مطلعة، وشملت المهمة، التي نُفذت الشهر الماضي، قصف عدة مواقع في كاراكاس، واستهدفت مادورو وزوجته.
ولا تزال تفاصيل استخدام "كلود" غامضة، فلم يُكشف عن تفاصيل العملية ولا عن الدور الدقيق الذي لعبه نظام الذكاء الاصطناعي، لكن مجرد استخدام نموذج ذكاء اصطناعي تجاري في عملية عسكرية حقيقية أمر لا يمكن تجاهله.
وقال متحدث باسم شركة "أنثروبيك" لصحيفة وول ستريت جورنال: "لا يمكننا التعليق على ما إذا كان "كلود"، أو أي نموذج ذكاء اصطناعي آخر، قد استُخدم في أي عملية محددة، سواء كانت سرية أم لا"، أي استخدام لبرنامج كلود، سواء في القطاع الخاص أو الحكومي، يخضع لسياسات الاستخدام الخاصة بنا، والتي تُحدد كيفية نشره، ونحن نعمل بتعاون وثيق مع شركائنا لضمان هذا الامتثال.
وقد تم نشر برنامج كلود، حسب التقارير، من خلال شراكة أنثروبيك مع شركة بالانتير تكنولوجيز، التي تُستخدم منصات برامجها على نطاق واسع من قبل وزارة الدفاع ووكالات إنفاذ القانون الفيدرالية، ومن خلال هذه القناة، أصبح كلود جزءًا من نظام مُدمج بالفعل ضمن إطار الأمن القومي.
توتر متزايد بين ضمانات الذكاء الاصطناعي والاستخدام العسكري
ما يجعل هذا التطور لافتًا للنظر بشكل خاص هو قواعد أنثروبيك نفسها، إذ تحظر إرشادات استخدام الشركة استخدام كلود لتسهيل العنف أو تطوير الأسلحة أو إجراء عمليات التجسس، مع ذلك، تضمنت العملية المذكورة قصف مواقع متعددة في كاراكاس، هذا التناقض بين السياسة المكتوبة والواقع الميداني بات محور نقاش متزايد.
كانت شركة أنثروبيك أول مطور لنماذج الذكاء الاصطناعي يُستخدم نظامه في عمليات سرية من قبل وزارة الدفاع الأمريكية، من المحتمل استخدام أدوات ذكاء اصطناعي أخرى في مهمة فنزويلا لمهام غير سرية، في البيئات العسكرية، يمكن لهذه الأنظمة المساعدة في تحليل كميات هائلة من الوثائق، وإعداد التقارير، أو حتى دعم أنظمة الطائرات المسيّرة ذاتية التشغيل.
بالنسبة لشركات الذكاء الاصطناعي المتنافسة في قطاع مزدحم وذو قيمة عالية، يُعدّ اعتمادها من قبل الجيش ذا أهمية بالغة، فهو يُشير إلى الثقة والقدرة التقنية، ولكنه في الوقت نفسه يُعرّض سمعتها للخطر.
تحدث داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك، علنًا عن المخاطر التي تُشكّلها أنظمة الذكاء الاصطناعي المتقدمة، ودعا إلى ضوابط ولوائح أكثر صرامة، كما أعرب عن قلقه بشأن استخدام الذكاء الاصطناعي في عمليات القتل الذاتي والمراقبة الداخلية، وهما مجالان يُقال إنهما أصبحا نقطتي خلاف في مفاوضات العقود مع البنتاجون.
يخضع العقد الذي مُنح لشركة أنثروبيك الصيف الماضي، والذي بلغت قيمته 200 مليون دولار، للتدقيق حاليًا، وقد أشارت تقارير سابقة إلى أن مخاوف داخل الشركة بشأن كيفية استخدام الجيش لتقنية كلود دفعت مسئولي الإدارة إلى التفكير في إلغاء الاتفاقية.
ويبدو أن الخلاف يتجاوز مجرد عملية واحدة، إذ يُظهر انقسامًا أعمق حول كيفية إدارة الذكاء الاصطناعي، فقد دعت إدارة ترامب إلى نهج تنظيمي أقل صرامة، بينما يُنظر إلى أنثروبيك على أنها تسعى إلى فرض ضمانات وقيود أكثر صرامة، بما في ذلك على صادرات رقائق الذكاء الاصطناعي.
وفي فعالية عُقدت في يناير للإعلان عن تعاون البنتاغون مع شركة xAI، صرّح وزير الدفاع بيت هيغسيث بأن الوكالة لن "تستخدم نماذج ذكاء اصطناعي لا تُمكّن من خوض الحروب"، في إشارة إلى المناقشات التي أجراها المسؤولون مع أنثروبيك.
