وزير الدفاع الأمريكي يدرس إدراج شركة أنثروبيك ضمن قائمة الخصوم وتصنيفها كخطر على سلسلة التوريد بسبب قيودها الأخلاقية

دخلت العلاقة بين وزارة الدفاع الأمريكية (البنتاغون) وشركة “أنثروبيك” (Anthropic) مرحلة من التصعيد غير المسبوق اليوم الاثنين 16 فبراير 2026، حيث لوحت الوزارة باتخاذ إجراءات قانونية قد تؤدي إلى عزل الشركة تقنياً وتصنيفها كخطر أمني، وذلك على خلفية نزاع حول أخلاقيات استخدام الذكاء الاصطناعي في العمليات القتالية والمراقبة.

المجال تفاصيل الأزمة (فبراير 2026)
الأطراف المتنازعة وزارة الدفاع الأمريكية (البنتاغون) ضد شركة Anthropic
النموذج محل الخلاف نظام الذكاء الاصطناعي “كلود” (Claude)
قيمة العقد المهدد 200 مليون دولار أمريكي
السبب الرئيسي رفض الشركة تطوير أسلحة ذاتية أو برامج مراقبة جماعية
التصنيف المقترح خطر على سلسلة التوريد (Supply Chain Risk)

تصعيد غير مسبوق: البنتاغون يضع “أنثروبيك” في قائمة الخصوم

كشف مسؤول رفيع في وزارة الدفاع الأمريكية لوسائل إعلام دولية اليوم، أن وزير الدفاع بيت هيغسيث يدرس بجدية اتخاذ إجراءات قانونية صارمة ضد شركة “أنثروبيك”، وتتجه الوزارة لتصنيف الشركة كـ “خطر على سلسلة التوريد”، وهو إجراء عقابي يُطبق عادةً ضد الشركات التابعة لخصوم أجانب، مما يعني إلزام كافة الجهات المتعاقدة مع الجيش الأمريكي بفك ارتباطها بالشركة فوراً.

جذور الأزمة: نموذج “كلود” وشروط الاستخدام العسكري

تأتي هذه الأزمة بعد مفاوضات متعثرة استمرت لعدة أشهر بين “البنتاغون” وإدارة الشركة التي يقودها داريو أمودي، وتتمحور نقاط الخلاف حول ما يلي:

  • استخدام الشبكات السرية: يُعد نموذج “كلود” التابع لأنثروبيك النظام الوحيد المتاح حالياً على الشبكات السرية للجيش الأمريكي، مما يجعله ركيزة أساسية في معالجة البيانات الحساسة.
  • موقف الشركة الأخلاقي: تتمسك “أنثروبيك” بوضع قيود صارمة تمنع استخدام تقنياتها في تطوير أسلحة فتاكة تعمل دون تدخل بشري (Autonomous Weapons)، أو تنفيذ برامج مراقبة جماعية للمواطنين.
  • رؤية الدفاع: يرى مسؤولو البنتاغون أن هذه القيود “مفرطة” وتعطل القدرات العملياتية للجيش، مطالبين بتمكين القوات المسلحة من استخدام الأدوات لكافة الأغراض التي يجيزها القانون الأمريكي دون “فيتو” من شركات التقنية.

مخاوف المراقبة الشاملة وتحليل البيانات

حذرت “أنثروبيك” من أن قدرات الذكاء الاصطناعي في عام 2026 تتجاوز التشريعات القائمة، حيث يمكن استغلال تقنياتها لتحويل “الاستخبارات مفتوحة المصدر” إلى منظومة مراقبة شاملة، ويخشى خبراء الشركة من قدرة النظام على تحليل منشورات الملايين وربطها بسجلات الناخبين وتصاريح السلاح لتصنيف المواطنين، وهو ما تراه الشركة انتهاكاً صارخاً للأخلاقيات التقنية، بينما يراه البنتاغون ضرورة أمنية ملحة ضمن إطار الاستخدام القانوني لمواجهة التهديدات.

التداعيات المالية والاستراتيجية للقرار

رغم أن قيمة العقد المباشر تبلغ نحو 200 مليون دولار، إلا أن التأثيرات الجانبية ستكون أشد وطأة على قطاع التكنولوجيا العالمي:

  • تضرر القطاع الخاص: تعتمد 8 من أكبر 10 شركات أمريكية حالياً على نظام “كلود”، وتصنيف الشركة كخطر سيهدد علاقة هذه الشركات مع وزارة الدفاع، مما قد يجبرها على تغيير مزود الخدمة.
  • الشركات المتعاقدة: سيُطلب من آلاف الموردين للجيش الأمريكي تقديم إقرارات رسمية بعدم استخدام تقنيات “أنثروبيك” في عملياتهم الإدارية أو التقنية.

المنافسة مع عمالقة التكنولوجيا

يمثل هذا الموقف المتشدد رسالة تحذيرية لشركات أخرى مثل “أوبن إيه آي” (OpenAI) و”غوغل” و”إكس إيه آي” (xAI)، وبحسب المصادر، أبدت هذه الشركات مرونة أكبر في إزالة بعض القيود عن استخدام تقنياتها في الأنظمة العسكرية غير المصنفة، بينما لا تزال المفاوضات جارية بشأن دمج تقنياتها في العمليات السرية الأكثر حساسية لتعويض الفراغ الذي قد يتركه انسحاب “أنثروبيك”.

أسئلة الشارع السعودي حول أزمة “أنثروبيك” والبنتاغون

هل يؤثر قرار البنتاغون على الشركات السعودية التي تستخدم نموذج “كلود”؟بشكل مباشر لا، فالقرار يخص المتعاقدين مع وزارة الدفاع الأمريكية، ومع ذلك، قد تتوخى الشركات السعودية الكبرى الحذر في الاعتماد الكلي على “كلود” إذا ما تطور النزاع إلى عقوبات تقنية أوسع تؤثر على استقرار الشركة المالي.
هل هناك بدائل محلية أو عالمية متاحة في السوق السعودي؟نعم، السوق السعودي يشهد نمواً كبيراً في نماذج الذكاء الاصطناعي، ويمكن للشركات التوجه لنماذج “أوبن إيه آي” أو الحلول المحلية التي تدعمها “سدايا”، والتي توفر مرونة تتوافق مع التشريعات الوطنية.
ما هو موقف الاستثمارات التقنية من هذا الصدام؟المستثمرون يراقبون بحذر؛ فالتصادم مع البنتاغون قد يقلل من القيمة السوقية لشركة “أنثروبيك”، لكنه في المقابل يعزز سمعتها كشركة “أخلاقية”، وهو ما قد يجذب نوعاً مختلفاً من الاستثمارات السيادية والخاصة التي تبحث عن تقنيات آمنة ومسؤولة.

المصادر الرسمية للخبر:

  • وزارة الدفاع الأمريكية (U.S، Department of Defense)
  • شركة Anthropic للذكاء الاصطناعي
  • بيانات لجنة القوات المسلحة بمجلس النواب الأمريكي

احمد نصر , مؤسس موقع كبسولة, متخرج من علوم ادارية معهد زوسر للحاسبات ونظم المعلومات, ابلغ من العمر 34 عاماً , اعمل كمحرر محتوي عام واخباري في العديد من المواقع, متخصص في الاخبار السعودية والترددات، للتواصل معي , fb.com/ahmadnasr1989 أو عبر الايميل ahmadnasr1989@gmail.com .

0 0 التصويت
Article Rating
الاشتراك في تنبيهات التعليقات
نبّهني عن
guest
0 تعليقات
الأقدم
الأحدث الأكثر تصويتا
التعليقات المضمنة
عرض جميع التعليقات
0
اكتب تعليقك او استفسارك وسنرد عليك في أقرب وقت بمشيئة الله تعالىx
()
x