الذكاء الاصطناعي .. أداة للمهاجمين أم للمدافعين؟


استبشرت مجموعات التكنولوجيا بطفرة الذكاء الاصطناعي التوليدي بوصفها فرصة لتعزيز فاعلية العمال وخفض التكاليف. ولكن هناك أيضا خوفا متزايدا بشأن استخدام التكنولوجيا كسلاح من قبل القراصنة لتمكينهم من شن الهجمات السيبرانية المدمرة.
مدعوما بالنماذج اللغوية الكبيرة، يمكن الذكاء الاصطناعي التوليدي أجهزة الكمبيوتر من إنشاء محتوى معقد - كالنص والصوت والفيديو والموسيقى - من المدخلات البشرية البسيطة، أو "التعليمات". وانفجر هذا الأمر في الوعي العام في أواخر العام الماضي مع إطلاق تشات جي بي تي من شركة أوبن إيه آي، وهو برمجية دردشة آلية استهلاكية يمكنها الإجابة عن أسئلة المستخدمين وأوامرهم.
لكن التكنولوجيا استحوذت بالفعل على خيال القراصنة. فبعد إطلاق تشات جي بي تي، ارتفع عدد المنشورات على منتديات شبكة الإنترنت المظلم حول كيفية استغلال الأداة من 120 منشورا في يناير إلى 870 في فبراير، وفقا لتقرير صادر عن برمجية نورد في بي إن- بزيادة قدرها 625 في المائة.
تحتوي معظم النماذج اللغوية الكبيرة على مرشحات لمنع إدخال التعليمات البشرية الضارة. لكن أحد مجالات القلق يحيط بما يعرف بتقنية التلاعب بالأوامر - حيث يجد القراصنة طرقا لتجاوز هذه المرشحات، ما يدفع النظام إلى توليد خطاب كراهية أو دعاية، أو مشاركة معلومات سرية، أو حتى كتابة تعليمات برمجية ضارة.
تم الإبلاغ عن المئات من عمليات التلاعب بالأوامر هذه، من ضمنها القراصنة والباحثون الذين يحاولون معرفة ما إذا كان باستطاعة الأنظمة كتابة برامج ضارة للكمبيوتر وبرامج فدية.
يقول ماكنزي جاكسون، مسؤول مطورين في مجموعة جيت جارديان للأمن السيبراني، إن البرمجيات الخبيثة التي يمكن كتابتها، حتى الآن، أساسية إلى حد ما - لكن الذكاء الاصطناعي التوليدي "يغير قدرة من يمكنه كتابة البرمجيات الخبيثة". وهذا يؤدي إلى إيجاد جيل جديد ممن يسميهم "قراصنة الذكاء الاصطناعي"، الذين لا يستطيعون هم أنفسهم الاختراق عادة، ولكنهم يعرفون كيفية استخدام هذه الأدوات الجاهزة.
وجد إيريان شيموني، الباحث الأمني الرئيس في شركة سايبر آرك، طرقا لجعل تشات جي بي تي يستخدم "هذه الأدوات لتوليد أنواع جديدة من البرامج الخبيثة تلقائيا". وكما أوضح أنه بإمكان المخترقين أن يطلبوا من تشات جي بي تي "استبدال وتغيير كل جزء" من البرامج الخبيثة، وبالتالي إنشاء برامج ضارة "متعددة الأشكال"، أو متحولة، من شأنها أن تتهرب من أنظمة الكشف.
يقول شيموني إن لعبة "القط والفأر" تجري بين القراصنة ومالكي روبوتات الدردشة، مثل تشات جي بي تي، حيث يسعى المالكون إلى تصحيح العيوب والثغرات الأمنية. ومع ذلك، يحذر من أنه "بدلا من ذلك، يمكن للقراصنة أو المهاجمين تنزيل النماذج اللغوية الكبيرة المجانية المتاحة للعامة على أجهزتهم الخاصة، وتدريبها على التعليمات البرمجية الخبيثة"، وبالتالي إنشاء نماذج أكثر تطورا وخطورة يمكنهم نشرها بأنفسهم. ويضيف شيموني: "نعتقد أن هذا الاتجاه سيزداد في المستقبل".
في الوقت الراهن، لا توجد طرق لوقف ذلك، وفقا لمنشور على المدونة صدر عن المركز الوطني للأمن السيبراني في أغسطس. قيل في المنشور: "بينما لا تزال الأبحاث جارية في تقنية التلاعب بالأوامر، فقد تكون ببساطة مشكلة متأصلة في تكنولوجيا النماذج اللغوية الكبيرة. كما أن الأبحاث مستمرة حول التخفيفات المحتملة، وهناك بعض الاستراتيجيات التي يمكن أن تجعل هذه التقنية أكثر صعوبة، ولكن حتى الآن لا توجد تخفيفات مؤكدة".
إضافة إلى ذلك، يمكن لمجرمي الإنترنت الاستيلاء على حلقات التغذية الراجعة المستخدمة لتطوير تكنولوجيا الذكاء الاصطناعي التوليدي مفتوحة المصدر. حيث قد يلجأ أحد القراصنة إلى تغذية نموذج ما ببيانات تدريب خبيثة، وبالتالي يتلاعب بما يتم إنتاجه، وهو ما يعرف باسم تسميم البيانات.
كما يتم إنشاء مزيد من مخاطر الأمن السيبراني من خلال قدرة الذكاء الاصطناعي التوليدي على أتمتة المهام على نطاق واسع. مثلا، يحذر الخبراء من أنه يمكن استخدامه لكتابة ونشر عمليات الاحتيال الهندسية الاجتماعية، مثل رسائل البريد الإلكتروني الاحتيالية أو عمليات الاحتيال الغرامية. على وجه الخصوص، يمكن أن تستهدف عديدا من الضحايا بطريقة أكثر تخصيصا مما كان ممكنا في السابق، من خلال جمع المعلومات من وسائل التواصل الاجتماعي ووجود الأشخاص على الإنترنت، أو استنساخ أسلوب كتابته.
لكن في الوقت الحالي، يعد وجود هذه المخاطر نظريا إلى حد كبير، كما تقول ساندرا جويس، نائبة الرئيس في مانديانت إنتيليجانس، وهي جزء من خدمة جوجل كلاود. يقوم القراصنة بإجراء التجارب على التكنولوجيا وتقديم الخدمات على شبكة الإنترنت المظلم للمساعدة في الالتفاف على مرشحات بعض الأنظمة المحددة لروبوتات الدردشة. ولكن لم تحدث أي اختراقات مترتبة عليها.
وكما تقول: "لم نستجب لحادثة واحدة تم فيها استخدام الذكاء الاصطناعي بطريقة مختلفة". على العكس من ذلك، فإن النشاط الرئيس الذي رأته هو استخدام التزييف العميق في حملات المعلومات أو المعلومات المضللة.
سيستلزم الدفاع ضد الاختراقات المستقبلية التي تعمل بالذكاء الاصطناعي مزيدا من اليقظة والتدقيق. لكن يتم استخدام الذكاء الاصطناعي حاليا للكشف عن البرامج الضارة على أجهزة الحاسوب، من خلال اكتشاف السلوك والأنماط غير العادية التي قد يغفلها البشر.
يقترح البعض الآن أن يتم نشره في الدفاع السيبراني على نطاق أوسع. حيث يدعو تقرير حديث صادر عن جارتنر المتخصصين في مجال الأمن السيبراني إلى "الحصول على تفويض لاستخدام فرص الذكاء الاصطناعي التوليدي لتحسين الأمن وإدارة المخاطر، وتحسين الموارد والدفاع ضد تكنولوجيات الهجوم الناشئة".
بالنظر إلى المدى الطويل، يستكشف الباحثون إمكانية الدفاع السيبراني المؤتمت بالكامل، حيث يمكن للأدوات أن تكتشف البرامج الخبيثة الجديدة وتمنعها على الفور من الانتشار أو التسبب في الضرر.
"فرصتنا الآن هي التفوق عليهم (القراصنة)"، كما تقترح جويس. "هذه هي المرة الأولى التي نملك فيها تكنولوجيا تتمتع بميزة متأصلة للمدافع".
لكن جاكسون يحذر من أنه سيكون هناك منحنى تعليمي حاد، مع ذلك: "ستكون الأعوام الخمسة المقبلة تحديا حقيقيا لفرق الأمن. نحن نفهم كيف يفكر القراصنة لكننا لا نفهم كيف تفكر هذه البرامج الخبيثة".

تاريخ الخبر: 2023-09-27 03:23:10
المصدر: صحيفة الإقتصادية - السعودية
التصنيف: إقتصاد
مستوى الصحة: 44%
الأهمية: 47%

آخر الأخبار حول العالم

المزيد من الأخبار

مواضيع من موسوعة كشاف

سحابة الكلمات المفتاحية، مما يبحث عنه الزوار في كشاف:

تحميل تطبيق المنصة العربية