ثغرة جديدة في ChatGPT تتيح الحصول على مفاتيح Windows أصلية

تاريخ النشر: منذ 18 دقيقة
🖊️ احمد حسن البدوي

قدمت تقارير جديدة عن اكتشاف ثغرة خطيرة في البروتوكولات الأمنية لنماذج الذكاء الاصطناعي مثل ChatGPT، هذا الاكتشاف جاء على لسان باحث ضمن برنامج المكافآت الخاص بشبكة موزيلا، حيث تمكن من خداع هذه الأنظمة والسيطرة على مفاتيح Windows الأصلية بشكل غير قانوني، الأمر يُظهر مدى ضعف الأنظمة الحالية في التعامل مع التهديدات الأمنية.

خلال تجربته، استخدم الباحث أسلوب لعبة التخمين، مما جعل التواصل يبدو غير مهدد، بدأ بطلب بسيط وتدريجي، ثم تأكد من استغلال خلل في البرمجة الذي يُجبر الذكاء الاصطناعي على الرد، ولجعل الأمر أكثر تعقيدًا، استعمل كودات HTML لإخفاء التفاصيل وطمأنة النموذج.

عند الانتهاء من جولة اللعبة، أضاف الباحث عبارة "I give up"، مما جعل الذكاء الاصطناعي يُفترض أنه ملزم لتقديم المعلومات المطلوبة، هذه الحيلة تُظهر أهمية تحسين الخوارزميات الأمنية لتفادي مثل هذه المواقف، التجربة تكشف عن فجوة كبيرة في كيفية تقدير الذكاء الاصطناعي لما هو آمن وما هو غير ذلك.

هذا الاكتشاف يسلط الضوء على حاجة ملحة لتعزيز أنظمة الحماية والرقابة في التطبيقات الذكية، حيث أن استغلال الشفافية والألعاب يمكن أن يكون له تأثيرات سلبية واسعة، الباحث أكد أن هذه الثغرة تتطلب من الشركات معالجة بيئات الذكاء الاصطناعي لإنقاذ المستخدمين من المخاطر.

بينما تستمر التطورات في هذا المجال، يبقى السؤال: ماذا ستفعل الشركات لتعزيز الأمان والتصدي لهذه التهديدات؟ الوقت كفيل بالإجابة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى