المخاطر الامنية المستحدثة


في ٢٦ سبتمبر ١٩٨٣ تصرف العسكري السوفيتي ستانيسلاف بيتروف المسؤول عن مركز قيادة التحذير المبكر للهجمات النووية في الدفاع الجوي بشكل يخالف الاجراءات الصارمة المتبعة والاوامر اللاحقة ولكن لاحقا شكرا العالم لانه بتصرفه المخالف انقذ العالم من حرب كارثية كانت ستمحي نص سكان الدول المشاركة فيها. ففي ذلك اليوم اصدر جهاز الرادار تنبيه يشير الى ان امريكا اطلقت صاروخ في اتجاه الاتحاد السوفيتي وثم تبعه اطلاق خمسة صواريخ اخرى ايضا في اتجاه السوفيت مما يوجب عليه اتخاذ قرار حالا بالرد لان الصواريخ هذه ان سقطت على الاراضي السوفياتية لكن يكون هناك اي وقت للرد نتيجة الدمار النووي الذي ستخلفه، ولكن بيتروف بحسه البشري وضع احتمال ان يكون هذا التنبيه ناتج عن خلل تقني في اجهزة الرادار وتصرف على هذا الاساس بمخالفة صريحة للتعليمات العسكرية وكان لديه دقايق محدودة ليتخذ فيها هذا القرار المصيري وبالفعل قرر عدم الرد بإطلاق صواريخ نووية باتجاه الولايات المتحدة الامريكية بترجيحه فرضية الخلل الفني التي اثبت لاحقا صحة فرضيته والتي انقذت العالم من كارثة مدمرة.

كثر الحديث في الاونة الاخيرة عن ايجابيات وسلبيات الذكاء الاصطناعي على العديد من مناحي الحياة بما فيها التعليم والاضرار الامنية والاجتماعية المحتملة بالذات بعد تدشين تطبيق Chat GPT وسهولة استخدامه للقيام بمهام البشر نيابة عنهم ودون تدخلهم.

ولكن هناك ايضا حديث اكثر خطورة تحاول بعض الدول والجهات التعامل معه قبل تفاقم اضراره وصعوبة السيطرة عليها لاحقا، وهو خطر توسع استخدامات الذكاء الاصطناعي في المجال العسكري، والخوف الاساسي هو من انعدام اي ضوابط او قيود او معايير لطبيعة وحدود هذا الاستخدام.

فهناك دول مثل امريكا والصين تخصص ميزانيات ضخمة لتطوير امكانياتها في الذكاء الاصطناعي سواء عبر تصنيع الاسلحة المتطورة او الطائرات والالات ذاتية الاستخدام او في برامج مثل الجندي الخارق super-soldier وهي برامج محاطة بدرجة كبيرة من السرية ولا نسمع عنها الا القليل مثل برنامج Tactical Assault Light Operator Suit الذي اعلن عنه بشكل مقتضب الرئيس الامريكي الاسبق باراك اوباما او البرامج الشبيهة في الصين التي تطرق لها رئيس المخابرات الوطنية الامريكية الاسبق جون راتكليف في مقال نشره في صحفية وول ستريت جورنال قبل خروجه للتقاعد بفترة بسيطه كنوع من التحذير الاستباقي لضرورة التعامل مع هذه الاخطار.

حيث كتب "اجرت الصين فعليا تجارب على بعض جنودها كمحاولة لتطوير جنود بقدرات بيولوجية فارقة القدرات. ولا يوجد لدى الصين اي حدود اخلاقية تحد من محاولاتها لامتلاك القوة" بحسب زعمه.

طبعا وجهة النظر الامريكية هي انها بعكس الصين تمتلك حدود اخلاقية تمثل رادع لها ضد التهور في تطوير مثل هذه البرامج، وهذه وجهة نظر لا يمكن بأي شكل من الاشكال الدفاع عنها لما لامريكا من تاريخ غير مريح في هذا الجانب.، لذلك يمثل مثل هذا التطور ناقوس خطر بالنسبة لبقية دول العالم التي قد تجد نفسها امام نوع جديد من التحديات الامنية التي لا قدرة لهم على التعامل معها وبالذات اذا خرجت عن سيطرت الجميع بمن فيهم من انتجها.

مؤخرا، في شهر فبراير الماضي اجتمع في هولندا عدد من الدول بمن فيهم الولايات المتحدة الامريكية والصين، ولم تكن روسيا مدعوة، لبحث هذا المهدد تحديدا وكيفية وضع الاطر القانونية والدولية الرادعة لهم والكفيلة بمنع انفلاته وخروجه عن السيطرة. ولكن لم يكن لدى امريكا ولا الصين اي رغبة حقيقية في تقديم اي تنازلات الزامية تفرض عليهم قيود اخلاقية او قانونية تحد من امكانياتهم المستقبلية في عسكرة الذكاء الاصطناعي.

لذلك كانت مخرجات المؤتمر متواضعة جدا لم تتجاوز الاتفاق على "دعوة للعمل" بدون اي التزام قانوني ولا آلية تضمن تنفيذ ما يتم الاتفاق عليه، على الرغم من توقيع امريكا والصين بالاضافة لاكثر من ٦٠ دولة اخرى على دعوة العمل وامتناع عدد اخر من الدول التوقيع عليها بمن فيهم إسرائيل التي كانت حاضرة في المؤتمر.

لذلك تبقى العديد من الاسئلة الجادة بدون اجوبة وبدون تدخل مسؤول من المجتمع الدولي يمنع الانزلاق لواقع يستحيل التعامل معه ولكن يسهل تجنبه لو تصرفت الدول المعنية بمسؤولية حقيقية منذ الان، فكيف سيتعامل العالم على سبيل المثال مع طائرات حربية ومسيرات وجنود تتخذ قراراتها وتتصرف بشكل ذاتي وباعتماد كامل على الذكاء الاصطناعي لا على قرارات البشر؟ وكيف سيتعامل الذكاء الاصطناعي مع حادثة مثل التي واجهها بيتروف في ١٩٨٣؟ هل سيخشى جهاز الكتروني ذاتي العمل من حدوث كارثة بشرية بسبب خلل فني؟

اخيرا نحن لا ندعوا لمنع تطوير برامج واستخدامات الذكاء الاصطناعي بل على العكس نرى اهميتها ودورها المهم في تقدم البشرية وصالحها لكن ندعوا لوضع الضوابط والحدود التي تحد من مخاطر هذه الاستخدامات، لكي لا تتطور بشكل سلبي يهدد امن واستقرار البشر كما حصل مع المسيرات التي اكثر من استخدامها باراك اوباما لاغتيال المقيدين على قوائم الارهاب الامريكية ومن ثم اصبحت تكنولوجيا تصنيع المسيرات متاحة في يد انظمة داعمة للارهاب وميليشيات متطرفة تستخدمها للاعتداء على سيادة الدولة والاضرار بمصالحها الاقتصادية والامنية وقتل المدنيين والابرياء.

تاريخ الخبر: 2023-03-02 21:19:46
المصدر: العربية - السعودية
التصنيف: سياسة
مستوى الصحة: 93%
الأهمية: 91%

آخر الأخبار حول العالم

المزيد من الأخبار

مواضيع من موسوعة كشاف

سحابة الكلمات المفتاحية، مما يبحث عنه الزوار في كشاف:

تحميل تطبيق المنصة العربية