ميتا تتعامل مع ثغرة أمنية تكشف محادثات المستخدمين مع روبوت الذكاء الاصطناعي

تاريخ النشر: منذ 52 دقيقة
🖊️ محمود خالد عمار

أعلنت شركة ميتا عن معالجة ثغرة أمنية كانت خطيرة في روبوتها للذكاء الاصطناعي المعروف باسم Meta AI، الثغرة هذه سمحت لبعض المستخدمين بالوصول إلى محتوى محادثات غيرهم، ما يعد انتهاكاً واضحاً لخصوصية المعلومات، هذه المشكلة تم اكتشافها بشكل حصري من قبل سانديب هودكاسيا، مؤسس شركة مختصة في أمن المعلومات.

في 26 ديسمبر من العام الماضي، اكتشف هودكاسيا هذه الثغرة وأبلغ ميتا عنها عبر برنامج مكافآت الثغرات، مما أسفر عن منح الشركة له مكافأة مالية تقدر بـ 10 آلاف دولار، ميتا قامت بإصلاح العطل في 24 يناير، مشيرة إلى أنه لا توجد شواهد على استغلال الثغرة بصورة سيئة من قبل أي شخص.

الكشف عن خطر الثغرة

تحدث هودكاسيا عن طريقة عمل الثغرة، مشيراً إلى أنه كانت هناك مشكلة في المستندات أثناء تعديل المحفزات في التطبيق، عند قيام أي مستخدم بتحرير نص أو طلب صورة، يتلقى رقماً فريداً لذلك الطلب، باستخدام أدوات تحليل الشبكة، تمكن من تغيير هذا الرقم واسترجاع بيانات تخص مستخدمين آخرين، دون أي نوع من التحقق.

ميتا تؤكد عدم حدوث استغلال فعلي

في تعليق له، أكد رايان دانيلز، المتحدث باسم ميتا، أنهم تعاملوا مع الثغرة بشكل تام، مشيراً إلى أنهم لم يجدوا دليل على وجود أي إساءة استخدام للثغرة، كما أن ميتا حرصت على تقديم تقدير للباحث الأمني الذي أبلغ عن المشكلة.

تحديات جديدة لميتا ولمنتجاتها

هذا الحادث يأتي في وقت تسرع فيه ميتا وغيرها من شركات التكنولوجيا الكبرى بتطوير منتجات الذكاء الاصطناعي، رغم ذلك، تتزايد المخاوف بشأن الأمان وخصوصية المعلومات، خاصة بعد ما حدث عند إطلاق تطبيق Meta AI، حيث شعرت بعض المستخدمين بالقلق من أن محادثاتهم لم تكن خاصة كما كانوا يظنون.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى