أظهر تقرير أمني حديث ومثير للقلق أن مجموعة تسلل إلكتروني صينية تدعى “APT31″، والمفروضة عليها عقوبات من قبل الولايات المتحدة، قامت باستغلال روبوت الدردشة “جيميناى” (Gemini) التابع لشركة جوجل في تحليل الثغرات البرمجية والتخطيط لهجمات تستهدف المؤسسات الحيوية في الولايات المتحدة، مما يعكس استخدامًا غير متوقع لتقنية الذكاء الاصطناعي.
استغلال إمكانيات جيميناي
بحسب موقع “ذا ريجستر” (The Register)، استخدمت هذه المجموعة قدرة جميناي على معالجة البيانات الضخمة لتطوير برمجيات خبيثة تُعرف باسم “الروبوت المفكر” (Thinking Robot)، هذا النوع من وكلاء الذكاء الاصطناعي قادر على التجسس ومعالجة البيانات المسروقة باستقلالية، وأكدت جوجل أنها رصدت هذه المحاولات وقامت بإغلاق الحسابات المرتبطة بها، مُشيرةً إلى أن المهاجمين دائمًا ما يحاولون إيجاد طرق مبتكرة للالتفاف حول القيود البرمجية التي تمنع استخدام الذكاء الاصطناعي لأغراض هجومية.
التحديات الأخلاقية للذكاء الاصطناعي
تُبرز هذه الحادثة المعضلة الأخلاقية والعملية الناجمة عن انتشار الذكاء الاصطناعي، فرغم استفادة الملايين من هذه الأدوات في حياتهم اليومية، إلا أن المجرمين السيبرانيين يستخدمونها لأتمتة عمليات الاختراق، وقد كانت الهجمات السيبرانية في الماضي تتطلب فرق مبرمجين محترفين، لكن الآن يمكن لأي نظام ذكي أن يقدم “خريطة طريق” للاختراق إذا لم تتوفر رقابة صارمة وفلاتر قادرة على تمييز النوايا الخبيثة.
تطوير وكلاء تجسس فعّالين
اعتمد الهكرز على تقنيات “تحليل الثغرات الآلي” المتاحة عبر جيميناي لبناء أدوات اختراق قادرة على تجاوز أنظمة الدفاع التقليدية بسرعة، ما يمثل تحديًا جديدًا لخبراء الأمن الذين يواجهون عدوًا رقميًا يمتلك قوة حوسبة هائلة.
استجابة جوجل والتدابير المستقبلية
تعهدت جوجل بتعزيز أدوات الرصد في نماذجها اللغوية لاكتشاف الأنماط المرتبطة بالنشاطات التخريبية، معبرة عن قلقها من تزايد استخدام الوكلاء الذكيين في تنفيذ هجمات “التزييف العميق” والتصيد الاحتيالي المستهدف، التي يصعب اكتشافها باستخدام الوسائل التقليدية المتبعة حاليًا.

التعليقات