تكنولوجيا
Le7tv.ma Send an email منذ 3 أسابيع
استخدام الذكاء الاصطناعي التوليدي يكشف بيانات تهدد خصوصية المؤسسات

حذر تقرير حديث من المخاطر الأمنية المتزايدة المرتبطة باستخدام أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT وCopilot، مؤكدا أن 8.5% من تفاعلات الموظفين مع هذه الأدوات تتضمن معلومات حساسة، من أبرزها بيانات الفوترة والمصادقة الخاصة بالعملاء.
ووفق تقرير صادر عن شركة “هارمونيك”، فإن الاستخدام غير المدروس لهذه المنصات قد يعرض بيانات المؤسسات للتسريب أو سوء الاستخدام، خاصة في ظل ضعف الوعي بالمخاطر الرقمية.
آنا كولارد، نائبة الرئيس لاستراتيجية المحتوى بشركة KnowBe4 Africa، أوضحت أن الكثير من المستخدمين لا يدركون كم البيانات الحساسة التي يشاركونها، مشيرة إلى أن “مجرد طلب تعديل اقتراح موجه لعميل معين، أو تحسين خطة أداء داخلية، قد يؤدي إلى مشاركة معلومات ملكية أو تفاصيل داخلية قيّمة”.
وأشارت كولارد إلى أن الطبيعة الودية وغير الرسمية لمساعدات الذكاء الاصطناعي تدفع الموظفين إلى مشاركة معلومات يترددون عادة في الإفصاح عنها في بيئة العمل التقليدية، من بينها بيانات تخص أدوات العمل أو ديناميكيات الفريق، وهو ما يمكن أن يستغله قراصنة الإنترنت في عمليات تصيد وهجمات الهندسة الاجتماعية.
وفي هذا السياق، حذرت من أن هذه المعطيات قد تجمع وتستخدم في بناء ملفات تعريفية معقدة لأغراض ضارة، داعية المؤسسات إلى تعزيز الرقابة وتقييد استخدام هذه الأدوات دون موافقة مسبقة.
وللحد من هذه المخاطر، شددت كولارد على ضرورة تدريب الموظفين على الاستخدام الآمن للذكاء الاصطناعي، وتطبيق ضوابط مؤسساتية تشمل حظر إدخال البيانات الحساسة، واعتماد أدوات خاضعة للرقابة.
كما أوصت باعتماد معيار ISO/IEC 42001، الذي يحدد إطارا واضحا لإنشاء وإدارة أنظمة الذكاء الاصطناعي بما يضمن التوافق مع قوانين حماية البيانات والمعايير الأخلاقية.