تحولات الذكاء الاصطناعي.. كيف يمكن أن يغير «تشات بي.آي.تي» موازين القوى العسكرية؟

أفادت ثلاث أوراق أكاديمية ومحللون بأن مؤسسات بحثية بارزة مرتبطة بجيش التحرير الشعبي الصيني تستخدم نموذج "لاما" المفتوح الذي ابتكرته شركة ميتا لتطوير أداة ذكاء اصطناعي يمكن استخدامها في التطبيقات العسكرية.

في ورقة بحثية نُشرت في يونيو، قدم ستة باحثين صينيين من ثلاث مؤسسات، بما في ذلك مؤسستان تابعتان لأكاديمية العلوم العسكرية، تفاصيل حول استخدامهم نسخة مبكرة من برنامج "لاما" كقاعدة لما يُطلقون عليه "تشات بي.آي.تي".

اعتمد الباحثون على نموذج لغة سابق من "لاما 13بي" ودمجوا معاييرهم الخاصة لإنشاء أداة ذكاء اصطناعي تُركز على الأغراض العسكرية، تهدف إلى جمع ومعالجة المعلومات الاستخباراتية وتقديم بيانات دقيقة وموثوقة لدعم اتخاذ القرارات خلال العمليات.

أشارت الدراسة إلى أن برنامج "تشات بي.آي.تي" تم تحسينه لأداء مهام الحوار والإجابة على الأسئلة في المجال العسكري، وتبين أنه يتفوق على بعض نماذج الذكاء الاصطناعي الأخرى، مثل برنامج "تشات جي.بي.تي-4" من شركة أوبن إيه.آي، حيث بلغت دقة أدائه نحو 90%. لكن لم يوضح الباحثون كيفية تقييم الأداء ولم يحددوا ما إذا تم تطبيق النموذج في أي سياق عملي.

وقال ساني تشيونج، الزميل في مؤسسة جيمس تاون والمتخصص في التكنولوجيا الناشئة في الصين، إن هذه هي المرة الأولى التي تُظهر فيها الأدلة أن خبراء الجيش الصيني يسعون منهجياً للاستفادة من نماذج اللغة الكبيرة المفتوحة المصدر، وخاصة تلك التي تنتجها شركة ميتا، لأغراض عسكرية.

تتيح شركة ميتا الاستخدام المفتوح للعديد من نماذج الذكاء الاصطناعي، بما في ذلك "لاما"، لكن تفرض قيوداً تشمل ضرورة الحصول على ترخيص للاستخدام من قبل الخدمات التي تضم أكثر من 700 مليون مستخدم، كما تحظر شروط الاستخدام أي تطبيقات عسكرية أو حربية أو نووية أو تجسسية.

مع ذلك، نظراً لطبيعة نماذج "ميتا" المفتوحة، تواجه الشركة صعوبة في فرض هذه الشروط بشكل فعال.

وفي ردها على استفسارات "رويترز"، أشارت ميتا إلى سياستها للاستخدام المقبول وأكدت أنها اتخذت خطوات لمنع إساءة الاستخدام.

وذكرت مولي مونتجومري، مديرة السياسات العامة في الشركة، أنه "لا يُسمح لأي استخدام لنماذجنا من قبل جيش التحرير الشعبي، وهذا يتعارض مع سياستنا للاستخدام المقبول".