في تحول دراماتيكي للسياسة الدفاعية الأمريكية لعام 2026، يقود وزير الدفاع بيت هيغسيث ضغوطاً غير مسبوقة لتحرير أنظمة الذكاء الاصطناعي العسكرية من “القيود الأخلاقية”، ويهدف هذا التحرك، الذي يأتي ضمن استراتيجية الإدارة الحالية، إلى ضمان تفوق التكنولوجيا الأمريكية في ميادين القتال، متجاوزاً التحفظات التي يصفها البنتاغون بأنها “عائق أيديولوجي” أمام الأمن القومي.
| المؤشر الإخباري | التفاصيل والبيانات |
|---|---|
| الموعد النهائي للامتثال | غداً الجمعة 27 فبراير 2026 |
| الجهة المصدرة للقرار | وزارة الدفاع الأمريكية (البنتاغون) |
| الشركة المستهدفة | أنثروبيك (Anthropic) |
| العقوبة المتوقعة | الإدراج في “القائمة الحمراء” والحرمان من العقود الفيدرالية |
| نسبة مخاطر التصعيد النووي | 95% وفقاً لدراسة “كلية كينغز” 2026 |
إنذار نهائي لشركة “أنثروبيك” والتهديد بـ “القائمة الحمراء”
وجهت وزارة الدفاع الأمريكية إنذاراً شديد اللهجة لشركة “أنثروبيك” (Anthropic)، طالبتها فيه بضرورة التخلي عن الضوابط البرمجية التي تمنع استخدام نماذجها في العمليات القتالية المباشرة، وتتلخص نقاط الأزمة الحالية في الآتي:
- مطالب واشنطن: رفع الحظر البرمجي عن دمج الذكاء الاصطناعي في الأسلحة ذاتية التشغيل وأنظمة المراقبة الجماعية العابرة للحدود.
- موقف الشركة: ترفض “أنثروبيك” حتى الآن منح الآلة سلطة اتخاذ قرار “القتل” دون إشراف بشري مباشر، التزاماً بمبادئها التأسيسية حول “سلامة الذكاء الاصطناعي”.
- العقوبات المتوقعة: في حال انقضاء المهلة دون استجابة، سيتم إدراج الشركة على “القائمة الحمراء”، ما يعني قطع التمويلات الحكومية ومنعها من الوصول إلى مراكز البيانات الفيدرالية.
⚠️ ترويسة خاصة: موعد انتهاء المهلة الرسمية
بناءً على التوجيهات الصادرة من البنتاغون، تم تحديد الموعد النهائي للامتثال كالتالي:
- اليوم المحدد: غداً الجمعة.
- التاريخ الميلادي: 27 فبراير 2026.
- الإجراء المرتقب: صدور قرار رسمي من مكتب الاستحواذ والتكنولوجيا بالبنتاغون بشأن استمرارية التعاقد مع الشركة.
استراتيجية “الواقعية الباردة”: إلغاء ضوابط عهد بايدن
كشفت مذكرة مسربة من البنتاغون، يعود تاريخها إلى 9 يناير الماضي، عن ملامح العهد الجديد في التعامل مع التكنولوجيا الحربية تحت إدارة ترامب الثانية، وتعتمد الاستراتيجية على:
- تجاوز “المثالية”: استبدال أطر “الذكاء الاصطناعي المسؤول” بـ “الواقعية الباردة” لتسريع وتيرة التسلح التكنولوجي أمام المنافسين الدوليين.
- إلغاء اللوائح: تم إلغاء كافة الأطر التنظيمية التي وضعت في عام 2023 و2024 والتي كانت تقيد استخدام الذكاء الاصطناعي في اتخاذ القرارات القتالية.
- الهدف الاستراتيجي: جعل “الفعالية القتالية” هي المعيار الوحيد للابتكار، مع الالتزام بالحد الأدنى من النصوص القانونية الدولية.
مخاطر وجودية: هل يقود الذكاء الاصطناعي العالم نحو حرب نووية؟
بالتزامن مع هذه الضغوط، حذرت دراسة حديثة صادرة عن “كلية كينغز” في لندن من تفويض القرار العسكري للآلة، وأظهرت نتائج تجربة محاكاة متطورة أجريت في مطلع عام 2026 ما يلي:
- عند منح نماذج الذكاء الاصطناعي صلاحية إدارة صراعات دولية، اتجهت الأنظمة إلى الحلول الأكثر تدميراً بشكل أسرع من البشر.
- النتيجة الصادمة: في 95% من سيناريوهات المحاكاة، اتخذت الأنظمة قرارات أدت إلى “تصعيد نووي” شامل نتيجة خوارزميات “تعظيم النصر” دون اعتبار للخسائر البشرية.
الأسئلة الشائعة (سياق الشارع السعودي)
هل تؤثر هذه الضغوط على استثمارات التقنية في السعودية؟
تراقب الجهات التقنية في المملكة هذه التطورات عن كثب، خاصة وأن المملكة تتبنى إطاراً أخلاقياً صارماً للذكاء الاصطناعي عبر “سدايا”، وأي تحول في سياسات الشركات العالمية قد يستدعي مراجعة اتفاقيات نقل التقنية.
هل يمكن أن ترفض “أنثروبيك” الامتثال وتنتقل للعمل من خارج أمريكا؟
من الصعب تقنياً، حيث تعتمد الشركة على بنية تحتية ومراكز بيانات ضخمة داخل الولايات المتحدة، لكن الضغوط قد تدفعها للبحث عن شراكات دولية أكثر توازناً.
ما هو موقف المملكة من استخدام الذكاء الاصطناعي عسكرياً؟
تؤكد المملكة دائماً في المحافل الدولية على ضرورة وجود “إشراف بشري” كامل على الأسلحة الفتاكة، وهو ما يتماشى مع الموقف الأخلاقي الحالي لشركة أنثروبيك.
المصادر الرسمية للخبر:
- وزارة الدفاع الأمريكية (البنتاغون)
- البيان الصحفي لشركة أنثروبيك (Anthropic)
- تقرير دراسة كلية كينغز لندن لعام 2026














