حذرت مايكروسوفت في أحدث تقاريرها الأمنية من المخاطر المتزايدة المرتبطة باستخدام وكلاء الذكاء الاصطناعي داخل المؤسسات، حيث أكدت أن منح هذه الأنظمة صلاحيات واسعة دون ضوابط صارمة قد يحولها إلى ما يشبه العملاء المزدوجين، ويأتي هذا التحذير في وقت يتسم بتسارع كبير في تبني تقنيات الذكاء الاصطناعي ضمن بيئات العمل.
صلاحيات مفرطة وثغرات محتملة
أوضحت الشركة أن بعض أنظمة الذكاء الاصطناعي تُمنح صلاحيات وصول واسعة إلى البيانات والأنظمة الداخلية، بينما تفتقر إلى إجراءات حماية كافية، مما قد يسمح لجهات خبيثة باستغلال هذه الأنظمة عن طريق توجيهها بتعليمات مضللة أو إدخال محتوى خادع، ما يخلق نقاط ضعف داخل المؤسسة بدلاً من تعزيز الأداء والإنتاجية.
انتشار واسع داخل الشركات الكبرى
أشار التقرير إلى أن أكثر من 80% من شركات قائمة فورتشن 500 تعتمد على أدوات ذكاء اصطناعي مطورة عبر منصات منخفضة قدر الإمكان أو بدون تعليمات برمجية، مما يسهل عملية التطوير لكنه يُعرض الجانب الأمني للخطر إذا لم تتم إدارته بدقة، وأظهرت دراسة شملت أكثر من 1700 متخصص في أمن البيانات أن 29% من الموظفين يستخدمون أدوات ذكاء اصطناعي في العمل دون الحصول على موافقة رسمية من أقسام تقنية المعلومات.
كيف يتم استغلال الأنظمة الذكية؟
أوضحت مايكروسوفت أن الباحثين سجلوا حالات يمكن فيها تضليل الأنظمة الذكية من خلال إدخال تعليمات ضارة داخل محتوى يبدو عادياً، أو عبر التلاعب بطريقة عرض المهام لتغيير سلوك النظام، ومع امتلاك هذه الأنظمة لصلاحيات واسعة، قد يؤدي أي توجيه خاطئ إلى كشف بيانات حساسة أو تنفيذ أوامر غير مقصودة.
تبني نموذج انعدام الثقة
لمواجهة هذه التحديات، أوصت مايكروسوفت بتطبيق إطار أمني يعتمد على مبدأ انعدام الثقة (Zero Trust)، والذي يمثّل قاعدة “لا تثق أبدًا، تحقق دائمًا”، مما يعني ضرورة التحقق المستمر من صلاحيات الوصول ومراقبة سلوك الأنظمة والمستخدمين، سواء كانوا داخل الشبكة أو خارجها.
بين الفرص والمخاطر
رغم التحذيرات، أكدت مايكروسوفت أن الذكاء الاصطناعي يمثل فرصة كبيرة لتعزيز الإنتاجية وتحسين سير العمل داخل المؤسسات، إلا أن الاستفادة القصوى من هذه التقنيات تستلزم حوكمة واضحة، وإدارة دقيقة للصلاحيات، وتطبيق معايير أمنية متقدمة لضمان عدم تحول أدوات الذكاء الاصطناعي إلى مصدر تهديد غير متوقع.

التعليقات