ويوضح محللون إستراتيجيون أن الكتابات الصينية حول "الحرب الذكية" تركز صراحةً على "الحرب المعرفية أو حرب الوعي"، أي استخدام الذكاء الاصطناعي "للسيطرة المباشرة على إرادة العدو"، بدءًا من كبار القادة وصولًا إلى السكان المدنيين.
بعبارة أخرى، لا ترى بكين في الذكاء الاصطناعي أداة للقوة النارية فقط، بل أيضًا للدعاية وعمليات التأثير، علمًا بأنها اتُّهمت مرارًا برعاية حملات تجسس سيبراني متطورة مثل تلك التي تقوم بها مجموعة "APT41" أو "التنين الثنائي".
في المقابل، يستثمر الجيش الأميركي كذلك بكثافة في أدوات الذكاء الاصطناعي لحروب عصر المعلومات، ولكن بمنطلقات إستراتيجية مغايرة. يتحدث
البنتاغون اليوم عن تحقيق ما يسميه "التفوق القراري" للقادة الميدانيين، وذلك عبر توسيع نطاق استخدام الذكاء الاصطناعي وتحليلات البيانات في كافة أفرع القوات المسلحة.
تأتي في صميم هذا التوجه مبادرات أميركية رئيسية مثل "القيادة والسيطرة المشتركة لجميع الميادين" (JADC2)، التي تهدف إلى ربط الأقمار الصناعية والسفن والطائرات والأدوات السيبرانية والوحدات الأرضية في شبكة واحدة متكاملة وسلسة.
ويُنظر إلى الذكاء الاصطناعي على أنه العصب المحوري لهذه المنظومة؛ حيث ستقوم الخوارزميات بدمج المعلومات الاستخبارية من مختلف الميادين (المسيّرات، المستشعرات، الأقمار الصناعية، الاعتراضات السيبرانية، وغيرها) وتقديمها في خلاصة ورؤى فورية للقادة.
وكمثال آخر، يوظف "مشروع مايفن" (Project Maven)، وهو ثمرة شراكة سابقة لم تعد قائمة اليوم بين
شركة غوغل والبنتاغون، تقنيات "رؤية الآلة" في الطائرات المسيّرة والأقمار الصناعية في ساحة المعركة للكشف التلقائي عن الأفراد أو المركبات أو الصواريخ ضمن بث الفيديو المباشر.
وفي ندوة حول الذكاء الاصطناعي عُقدت مطلع عام 2024 حث كريغ مارتل، رئيس قسم الذكاء الاصطناعي في البنتاغون، الحاضرين على تخيل "عالم يستطيع فيه القادة المقاتلون رؤية كل ما يحتاجون إليه… دون انتظار تقارير أو عروض تقديمية".
بعبارة أخرى، سيقوم الذكاء الاصطناعي بصياغة الوعي الموقفي للقائد بشكل مباشر وفوري. كما تختبر القوات الأميركية العمليات السيبرانية المدعومة بالذكاء الاصطناعي، مثل الفحص الآلي للشبكات بحثًا عن نقاط الضعف أو التحليل التنبؤي للتهديدات.
خلاصة القول، أن النهج الأميركي يركز على الذكاء الاصطناعي باعتباره "مُضاعِفًا للقوة" (Force Multiplier)؛ فهو يعمل على أتمتة التحليلات المُرهِقة، ورصد الأنماط وسط بحر هائل من البيانات القادمة من المستشعرات، وتقديم توصيات سريعة ليتمكن القادة البشر من اتخاذ قراراتهم بشكل أسرع وأكثر فاعلية. (على سبيل المثال، قام سلاح الجو الأميركي بتصميم نماذج أولية لـ"حزم أدوات" ذكاء اصطناعي للقيادة والسيطرة السحابية، بحيث يمكن تحليل بيانات مثل الاتصالات اللاسلكية أو كاشفات الأهداف المتحركة بواسطة أدوات تعمل بالذكاء الاصطناعي).
لكن على الرغم من هذا التسابق المحموم، يدرك الطرفان حجم الأخطار الكامنة. ففي حين يخشى المخططون الأميركيون من مغبة الاعتماد المفرط على هذه التقنيات أو تعرضها لهجمات إلكترونية معادية، يحذر المحللون في جيش التحرير الشعبي من أن الثقة المفرطة والوهمية في تحقيق "الهيمنة المعرفية" قد تقود إلى قرارات خاطئة تضلل القيادة. إلا أن المنشورات الرسمية الصينية لا تترك مجالًا للشك في أنها ماضيةٌ بقوة في دمج الذكاء الاصطناعي في صلب عملياتها المعلوماتية والحرب النفسية.
تشير دراسة أجرتها مؤسسة "راند" للعقيدة العسكرية لجيش التحرير الشعبي إلى أن الصين أصبحت تعتبر "الحرب النفسية" أحد المكونات الرئيسية للحرب الحديثة، مستفيدةً من أدوات متقدمة كتحليلات البيانات الضخمة وتقنيات مسح الدماغ للتنبؤ بسلوك العدو أو التأثير فيه.
وتعكس عقيدة الجيش الصيني تركيزًا متزايدًا على "الحرب المعرفية أو حرب الوعي"، التي تهدف إلى السيطرة على تصورات الخصم وقراراته باعتبارها مفتاحًا لتحقيق النصر. ويُعزّز هذا التوجه بجهود الأفرع الجديدة في الجيش، مثل "قوة الدعم المعلوماتي" و"قوة الدعم الإستراتيجي"، التي توحّد قدراتها في مجالات الفضاء السيبراني والفضاء الخارجي والاستخبارات الإلكترونية، لتوظيف الذكاء الاصطناعي في الدعاية، والرسائل المضادة، والحرب الإلكترونية.
وفي هذا الإطار الأوسع لحرب المعلومات، تستخدم الصين والولايات المتحدة الذكاء الاصطناعي لتحليل الرأي العام ونشر الدعاية أو المعلومات المضللة، حيث تُسهم الروبوتات (البوتات) المدعومة بالذكاء الاصطناعي في تضخيم الروايات عبر وسائل التواصل الاجتماعي، وتصميم محتوى "تزييف عميق" (deepfake) لتشويه سمعة القادة، وتنفيذ عمليات نفسية (psyops) موجهة لفئات ديموغرافية محددة.
وقد حذر تقرير حديث من مايكروسوفت من عمليات تأثير صينية تعتمد على محتوى من إنتاج الذكاء الاصطناعي للتأثير في الرأي العام في الولايات المتحدة ودول أخرى.
في المقابل، تبقى العقائد العسكرية الأميركية الرسمية أكثر تحفظًا في تناولها المعلن للحرب المعلوماتية، إذ تركز "العقيدة المشتركة" الأميركية على "العمليات المعلوماتية" -بما في ذلك العمليات النفسية، والحرب الإلكترونية، والخداع السيبراني- ولكن في إطار دفاعي وإستراتيجي إلى حد كبير، مع تركيز الاستثمارات الأميركية على مواجهة حملات التضليل الأجنبي وكشف تقنيات التزييف العميق والروبوتات الخبيثة باستخدام الذكاء الاصطناعي.
علاوة على ذلك، يركز الجنرالات الأميركيون على التقنيات التي تساعد الجنود على الرؤية والرمي، بدلًا من استهداف العقول بشكل صريح. كما لم تتبنَّ أي وثيقة إستراتيجية أميركية رسمية حتى الآن دعوات صريحة مشابهة للرؤية الصينية بضرورة "السيطرة على إرادة العدو". ومع ذلك، تبقى التقنيات الأساسية التي يستخدمها الطرفان -مثل التنقيب في البيانات، وتحليل المشاعر، والرسائل الموجهة- متشابهة إلى حد كبير. فوكالات الدفاع الأميركية تمول أبحاثًا في الجوانب المعرفية للذكاء الاصطناعي (مثل أبحاث وكالة مشاريع الأبحاث الدفاعية المتقدمة "داربا"، حول الإدراك البشري، وكشف الكذب القائم على الذكاء الاصطناعي) ومكافحة الدعاية المعتمدة عليه.
لكن الفارق الجوهري يكمن في أن استخدام الذكاء الاصطناعي في السياق العسكري الأميركي محكومٌ بقيود قانونية وأخلاقية أكثر صرامة، مثل السياسات التي تفرض وجود "سيطرة بشرية فاعلة" على الأسلحة الفتاكة. على النقيض من ذلك، تعمل المنظومات الصينية بتوجيه مباشر من الدولة وفي ظل قيود محدودة جدًّا على الخصوصية، مستخدمةً شبكات المراقبة الداخلية الهائلة في الصين كحقل تجارب لتدريب وتطوير خوارزمياتها.