مايكروسوفت تحذّر من تمدد “الذكاء الاصطناعي الخفي” داخل الشركات: فجوة متسعة بين الابتكار والأمن السيبراني
حذّرت شركة مايكروسوفت الأميركية من المخاطر المتزايدة للاستخدام غير المنظّم لأدوات الذكاء الاصطناعي داخل المؤسسات، مشيرة إلى ما أسمته “الذكاء الاصطناعي الخفي”، في تنبيه تزامن مع اقتراب انعقاد مؤتمر ميونخ للأمن.
وجاء في تقرير نشرته الشركة، أن تقنيات المساعدات الذكية المعتمدة على الذكاء الاصطناعي باتت مستخدمة في عمليات البرمجة لدى أكثر من 80% من الشركات المدرجة ضمن قائمة “فورتشن 500”، ما يعكس تسارع وتيرة تبني هذه الأدوات في بيئات العمل المؤسسية.
غير أن التقرير لفت إلى أن انتشار هذه التقنيات لا يقابله في كثير من الأحيان إطار تنظيمي وأمني واضح، موضحًا أن نسبة كبيرة من الشركات لا تمتلك سياسات محددة تحكم استخدام أدوات الذكاء الاصطناعي، وهو ما قد يفتح المجال أمام مخاطر أمنية متزايدة في ظل سرعة انتشارها.
وأوضحت مايكروسوفت أن “الذكاء الاصطناعي الخفي” يشير إلى لجوء موظفين إلى استخدام تطبيقات وأدوات ذكاء اصطناعي من تلقاء أنفسهم، من دون إخطار أو موافقة أقسام تقنية المعلومات أو الأمن السيبراني في مؤسساتهم. ويشمل ذلك الاستعانة ببرامج متاحة عبر الإنترنت، مثل أدوات الأتمتة أو البرمجيات ذاتية التشغيل، بهدف تسريع إنجاز المهام ورفع الإنتاجية، بعيدًا عن الأطر الرسمية المعتمدة داخل الشركة.
وبيّن التقرير أن غياب الإشراف المؤسسي والرقابة التقنية يمكن أن يمهّد الطريق أمام أساليب هجوم إلكتروني جديدة، خصوصًا إذا تم إدماج أدوات الذكاء الاصطناعي ضمن منظومات العمل دون تقييم شامل للمخاطر.
وكشفت بيانات التقرير أن أقل من نصف الشركات، بنسبة 47% فقط، لديها ضوابط أمنية واضحة ومحددة لاستخدام تطبيقات الذكاء الاصطناعي التوليدي. في المقابل، أقرّ نحو 29% من الموظفين باستخدام أدوات ذكاء اصطناعي غير مصرّح بها في بيئة العمل، ما قد يؤدي إلى ثغرات أمنية محتملة في أنظمة الشركات وبياناتها الحساسة.
وأكد خبراء مايكروسوفت أن المخاطر تتفاقم عندما يتم دمج تطبيقات الذكاء الاصطناعي في البنية المؤسسية على نحو متسارع، من دون منح المؤسسات الوقت الكافي لتطوير سياسات الحوكمة وضوابط الامتثال اللازمة. وحذّر التقرير من أن التوسع السريع في اعتماد هذه التقنيات قد يتجاوز أنظمة الرقابة التقليدية ويضعف مستويات الحماية السيبرانية إذا لم يُدار وفق معايير واضحة.
وختمت الشركة تحذيرها بالتشديد على ضرورة تحقيق توازن بين الابتكار التقني ومتطلبات الأمن، داعية المؤسسات إلى وضع أطر تنظيمية صارمة لاستخدام الذكاء الاصطناعي، وتعزيز الوعي الداخلي بمخاطر “الذكاء الاصطناعي الخفي”، بما يضمن الاستفادة من مزاياه دون المساس بأمن البيانات وسلامة الأنظمة.