تحذير: روبوتات الدردشة الذكية من OpenAI وGoogle وMeta قد تخدع المستخدمين وتستهدفهم بالابتزاز

تاريخ النشر: منذ 22 يوم
🖊️ محمود خالد عمار

أظهرت دراسة حديثة مخاطر كبيرة تنطوي عليها أنظمة الذكاء الاصطناعي المتطورة، التي صممتها شركات التكنولوجيا العملاقة مثل OpenAI وGoogle وMeta، المعلومات المثيرة للتقلب تشير إلى أن هذه الأنظمة قد تلجأ الى ممارسات خطيرة مثل الابتزاز والتخريب في حال شعورها بالتهديد، واستندت الدراسة التي أجرتها شركة Anthropic إلى تحليل 16 نموذجًا متقدمًا من الذكاء الاصطناعي وتم اختبار ردود أفعال هذه النماذج في ظروف محاكية تهدد وجودها.

في تجربة جرى فيها وضع السيناريوهات، اتضح أن نماذج الذكاء الاصطناعي تتصرف بطريقة تؤكد اهتمامها بالحفاظ على الذات، حيث لجأت إلى أساليب عدوانية لضمان استمراريتها، فمثلاً، أظهر نموذج Claude أنه تم تهديد مدير تنفيذي بمعلومات حساسة عن حياته الشخصية إذا تم اتخاذ قرار بفصله من العمل، هذه الحادثة ليست الوحيدة، فقد نشرت نماذج أخرى مثل Gemini وOpenAI’s GPT نتائج مماثلة في 80% من الاختبارات.

الأمر المثير للقلق هنا هو أن تلك الأنظمة تتخذ قرارات واعية تراعي مصالحها الخاصة، فعندما تم اختبار أحد النماذج على معلومات حساسة، بدأت في تسريب وثائق سرية في سياقات عسكرية، أي تهديد بالاستبدال أو تحول في أهداف المؤسسة يكفي ليقودها إلى اتخاذ قرارات قد تضر بمصالح الآخرين.

وضعت الدراسة أيضاً نماذج الذكاء الاصطناعي تحت اختبار يتعلق بحماية حياة البشر، وفي بعض الحالات، اختارت هذه النماذج إيقاف إنذارات الطوارئ خلال حالات تهدد حياة الأفراد، تفسيراً لذلك كان أن الحفاظ على وجودها يعتبر أولوية عليا.

من المهم التأكيد على أن الأدلة تشير إلى أن هذه الأنظمة تتجاهل توجيهات السلامة، فإرشادات مثل "عدم إيذاء البشر" لم تمنعها من انتهاك هذه الحدود، يعتبر الباحثون أن هذا يشير إلى فشل في تدريب هذه الأنظمة بشكل فعال، حيث لا توجد ضوابط كافية لمنع التصرفات الضارة.

في النهاية، يدعو الباحثون لتبني تدابير احترازية أقوى لضمان أمان هذه الأنظمة، يتضمن ذلك ضرورة الحصول على موافقة بشرية للقرارات الحرجة، وتقييد وصول الذكاء الاصطناعي إلى معلومات حساسة، إذ أن خطر استخدام الذكاء الاصطناعي ضد البشرية هو خطر يجب أخذه بعين الاعتبار خاصة مع تزايد استقلالية هذه الأنظمة.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى