جدول المحتويات
في الأشهر الأخيرة، شهد الذكاء الاصطناعي طفرة غير مسبوقة في التطور، ليصبح جزءًا أساسيًا من حياتنا اليومية وأعمالنا المهنية. ومع ذلك، وبينما تنتشر تطبيقات الذكاء الاصطناعي بشكل واسع، لا تزال العديد من قدراته الأكثر قوة غير مستغلة بالكامل، بانتظار أن تفتح العقول المبتكرة مجالات جديدة لاستخداماته. وبينما تم توثيق إمكانات الذكاء الاصطناعي في التطبيقات المدنية بشكل جيد، يشهد العالم تحولًا كبيرًا مع توجه الشركات العاملة في تطوير الذكاء الاصطناعي نحو الاستخدامات العسكرية. وقد أعلنت عدة شركات تقنية كبرى — مثل “OpenAI” و”Anthropic” و”Meta” — عن شراكات جديدة مع الجيش الأميركي، مما أثار جدلاً حول التداعيات الأخلاقية لاستخدام الذكاء الاصطناعي في الحروب. يستعرض هذا المقال هذه التطورات، متطرقًا إلى الدوافع وراء تعاون شركات التقنية المتزايد مع الجيش، مع مراعاة القضايا الأخلاقية والتأثيرات المحتملة على الأمن العالمي.
صعود الذكاء الاصطناعي في القطاعات المدنية والعسكرية
على مدار السنة الماضية، أصبح الذكاء الاصطناعي أداة لا غنى عنها في العديد من القطاعات، من الرعاية الصحية إلى التمويل. سارع الأفراد والشركات على حد سواء إلى استكشاف طرق جديدة لدمج الذكاء الاصطناعي في عملياتهم، مع التركيز بشكل رئيسي على تحسين الكفاءة وأتمتة المهام الروتينية. ومع ذلك، وبينما كانت التطبيقات المدنية هي المحور الأساسي، رأت الجيوش العالمية— لا سيما الجيش الأميركي— في الذكاء الاصطناعي فرصة لتعزيز التفوق التكنولوجي العالمي.
لطالما أبدى الجيش الأميركي، شأنه شأن نظيراته في دول أخرى، اهتمامًا باستخدام الذكاء الاصطناعي لأغراض الدفاع. ومع ذلك، حتى وقت قريب، كانت هذه الجهود تدار بشكل سري إلى حد كبير. كانت مبادرات الذكاء الاصطناعي العسكرية مصنفة تحت السرية، وكانت الشركات التي تطور نماذج الذكاء الاصطناعي المتقدمة تمتنع عن الاعتراف بتعاونها مع وكالات الدفاع بشكل علني، مما دفع العديد من الخبراء للاعتقاد بأن الذكاء الاصطناعي لم يصل بعد إلى مستوى النضج اللازم للاستخدامات العسكرية. لكن هذا التصور يتغير بسرعة.
تحول الشركات الكبرى نحو العقود العسكرية
جاءت اللحظة الحاسمة عندما أعلنت شركة Anthropic، المطوّرة لنموذج الذكاء الاصطناعي “Claude” والتي تعدّ أحد أقوى المنافسين لـ”ChatGPT” من OpenAI، عن شراكة مفاجئة مع الجيش الأميركي. أبرمت الصفقة بوساطة أمازون و”Palantir”، وهي شركة معروفة بعقودها مع الحكومة والجيش، ما أتاح دمج أنظمة “Palantir” في نماذج “Anthropic” عبر خدمات السحابة من أمازون. من المتوقع أن يُسهم هذا الدمج في تسريع مراجعة الوثائق والبيانات المعقدة، مما يعزز قدرة القيادة العسكرية على اتخاذ القرارات في العمليات الحرجة.
إلى جانب “Anthropic”، أثارت شركة Meta هي الأخرى ضجة من خلال تعديل سياستها المتعلقة باستخدام نماذج الذكاء الاصطناعي في الأغراض العسكرية. فقد كانت الشركة قد فرضت في السابق قيودًا على استخدام نماذج الذكاء الاصطناعي مفتوحة المصدر الخاصة بها، مثل سلسلة “Llama”، للأغراض العسكرية. إلا أنها أعلنت مؤخرًا عن تغيير في هذه السياسة، بحيث تسمح الآن لوكالات الحكومة الأميركية والمتعاقدين العسكريين، مثل “Lockheed Martin” و”Booz Allen Hamilton”، باستخدام تقنياتها تحت شعار “الابتكار المسؤول والأخلاقي.”
وأخيرًا، قامت شركة OpenAI، المطورة لـ “ChatGPT”، التي تجنبت سابقًا العقود العسكرية، بمراجعة سياستها للسماح ببيع نماذج الذكاء الاصطناعي للقوات الجوية الأميركية. جاء هذا التحول بعد مناقشات داخلية في “OpenAI” حول التداعيات الأخلاقية لاستخدام الذكاء الاصطناعي في تطبيقات عسكرية.
الطموحات المتزايدة للجيش الأميركي في مجال الذكاء الاصطناعي
مع أن هذه الشراكات تمثل تحولاً ملموسًا في موقف شركات الذكاء الاصطناعي، فإنه يجدر بالذكر أن الجيش الأميركي يستخدم تقنيات الذكاء الاصطناعي منذ سنوات. وفقًا لتقرير صادر عن مجلة “تايم”، زاد الجيش الأميركي من إنفاقه على تطوير الذكاء الاصطناعي، حيث ارتفعت ميزانيته من 190 مليون دولار في عام 2022 إلى 557 مليون دولار في 2023. يهدف هذا الاستثمار إلى تطوير أنظمة ذكاء اصطناعي مصممة خصيصًا لتلبية احتياجات الجيش، مع التركيز على مجالات مثل اعتراض الإشارات، ومراقبة الأهداف، والتنبؤ بالهجمات.
مؤخرًا توسعت جهود الجيش في مجال الذكاء الاصطناعي من خلال مبادرات مثل Project Linchpin، الذي يهدف إلى دمج تقنيات الذكاء الاصطناعي عبر جميع عمليات الجيش. ومن المشاريع البارزة أيضًا تطوير أداة NIPRGPT، وهي نسخة من الذكاء الاصطناعي مصممة لتعزيز القدرات البرمجية في البيئات الأمنية.
من المتوقع أن تساهم العقود الأخيرة مع الشركات الخاصة في تسريع تبني الجيش لتقنيات الذكاء الاصطناعي. فمن خلال الوصول إلى نماذج الذكاء الاصطناعي المتطورة التي طورتها شركات مثل “Anthropic” و”OpenAI”، يستطيع الجيش تحسين قدراته بشكل أسرع مما يمكن تحقيقه باستخدام التقنيات المطورة داخليًا فقط.
المعضلات الأخلاقية والمعارضة الداخلية
على الرغم من أن التعاون بين شركات الذكاء الاصطناعي والجيش الأميركي قد يبدو تطورًا طبيعيًا، فقد أثار هذا التعاون الكثير من النقاشات الأخلاقية. فقد عبر العديد من موظفي هذه الشركات، بالإضافة إلى نشطاء حقوق الإنسان، عن مخاوفهم بشأن عسكرة تقنيات الذكاء الاصطناعي. في عام 2018، على سبيل المثال، واجهت Google احتجاجًا واسعًا من موظفيها عندما تم الكشف عن مشاركتها في مشروع “ِProject Maven” التابع للبنتاغون، والذي يعتمد على الذكاء الاصطناعي لتحليل لقطات الفيديو الخاصة بالطائرات بدون طيار. وبعد ضغوط داخلية واحتجاجات علنية، انسحبت “Google” من المشروع.
أكثر مؤخرًا، تقدم موظفون في أمازون وجوجل باعتراضات على تورط شركاتهم في العمليات العسكرية، خاصة فيما يتعلق باستخدام إسرائيل لتقنيات الذكاء الاصطناعي في صراعها مع غزة. يجادل هؤلاء الموظفون بأن استخدام الذكاء الاصطناعي في الحروب، خاصة في نظم الأسلحة الذاتية، يثير تساؤلات خطيرة حول المساءلة وحقوق الإنسان.
على المستوى الدولي، دعت عدة دول ومنظمات حقوقية إلى حظر الأسلحة المعتمدة على الذكاء الاصطناعي. في عام 2021، قادت نيوزيلندا حملة لصياغة معاهدة دولية تحظر أنظمة الأسلحة الذاتية، مشيرة إلى مخاوف من حادثة وقعت في ليبيا عام 2020، حيث تم استخدام طائرات مسيرة مدفوعة بالذكاء الاصطناعي في القتال. لكن القوى العسكرية الكبرى مثل الولايات المتحدة، والصين، وروسيا قاومت تلك الجهود.
المخاطر المحتملة ومستقبل الذكاء الاصطناعي في الحروب
إن دمج الذكاء الاصطناعي المتزايد في العمليات العسكرية يثير العديد من المخاطر، خاصة في ما يتعلق بقدرة أنظمة الذكاء الاصطناعي على اتخاذ قرارات مستقلة في مواقف القتال. على الرغم من إصدار البنتاغون توجيهات لضمان وجود إشراف بشري على الأسلحة الذاتية، يعتقد العديد من الخبراء أن هذه الاحتياطات قد لا تكون كافية لمنع التصعيد غير المتوقع في النزاعات.
وعلاوة على ذلك، فإن تسليح الذكاء الاصطناعي يثير القلق بشأن انتشار هذه التقنيات العسكرية المتقدمة. مع تطور المزيد من الدول وامتلاكها أنظمة تعتمد على الذكاء الاصطناعي، يزداد خطر وقوع هذه التقنيات في أيدي جهات غير حكومية أو أنظمة مارقة. في أسوأ السيناريوهات، يمكن استخدام الذكاء الاصطناعي لشن هجمات إلكترونية أو تنفيذ ضربات بالطائرات المسيرة دون تدخل بشري.
رغم هذه المخاطر، ترى قادة في قطاع التكنولوجيا أن الذكاء الاصطناعي يمكن أن يكون أداة إيجابية في مجال الدفاع. على سبيل المثال، قال داريو أموداي، الرئيس التنفيذي لـ”Anthropic”، علنًا إن الدول الديمقراطية تتحمل مسؤولية تطوير تقنيات الذكاء الاصطناعي لحماية نفسها من الأنظمة الاستبدادية التي قد تُسيء استخدام هذه التكنولوجيا لأغراض قمعية. وفقًا لأموداي، فإن الاستخدام الأخلاقي للذكاء الاصطناعي في المجالات العسكرية يمكن أن يساعد في الحفاظ على الاستقرار العالمي من خلال منع ظهور الفظائع المدفوعة بالتقنيات الذكية.
يمثل التعاون بين شركات الذكاء الاصطناعي والجيش الأميركي تحولًا كبيرًا في دور الذكاء الاصطناعي في الأمن العالمي. وبينما تحركت هذه الشراكات بدافع السعي للحفاظ على التفوق التكنولوجي في عالم تنافسي بشكل متزايد، فإنها تثير أيضًا تساؤلات أخلاقية معقدة. ومع استمرار تطور الذكاء الاصطناعي ليصبح أكثر استقلالية، يتزايد القلق بشأن الحدود بين الإشراف البشري واتخاذ القرارات بواسطة الآلات، مما يزيد من المخاوف بشأن المساءلة في النزاعات العسكرية.
يبقى مستقبل استخدام الذكاء الاصطناعي في التطبيقات العسكرية غير واضح حتى الآن، لكن من المؤكد أن دوره في السياقات المدنية والعسكرية سيستمر في النمو على حد سواء. يتطلب ذلك من صانعي السياسات، والشركات التقنية، والمجتمع الدولي التفاعل في حوار مفتوح حول الاستخدام المسؤول للذكاء الاصطناعي في العمليات العسكرية. سيكون تحقيق التوازن بين الابتكار والاعتبارات الأخلاقية أمرًا حيوياً لضمان استخدام الذكاء الاصطناعي كأداة للسلام والأمن، بدلاً من أن يكون مُسبِّبًا للصراعات والدمار.