OpenAI تعلن عن التزامها بنشر نتائج أمان نماذج الذكاء الاصطناعي بانتظام

في خطوة مفاجئة، أعلنت شركة OpenAI عن عزمها نشر نتائج تقييمات الأمان لنماذج الذكاء الاصطناعي لديها بصفة دورية، هذا الإعلان يأتي في إطار جهود الشركة لتعزيز الشفافية والتواصل مع الجمهور، مما يعكس التزامها تجاه التطورات السريعة في هذا المجال.
وتتضمن هذه المبادرة منصة جديدة تعرف بـ"Safety Evaluations Hub"، حيث سيتم نشر نتائج أداء النماذج في اختبارات تتعلق بالسلامة ومواجهة المحتوى الضار، من خلال هذه المنصة، تأمل الشركة في توضيح التقدم الذي حققته في تطوير نماذجها وعلى مدى الزمن.
وبالرغم من هذه الخطوة الإيجابية، تواجدت انتقادات حادة من البعض في مجتمع الذكاء الاصطناعي، فقد أدلى بعض الباحثين بتعليقات تشير إلى أن OpenAI قد تكون متسرعة في تطبيق نماذجها الجديدة، محذرين من عدم الكشف بشكل كامل عن التقارير الفنية، ويشير البعض إلى أن الرئيس التنفيذي سام ألتمان تعرض لضغوط نتيجة هذه الانتقادات، مما أدى لوجود غموض في ما يتعلق بمسائل الأمان.
في ذات السياق، تعرضت الشركة في الفترة الأخيرة لانتقادات بعد سحبها تحديثًا حديثًا لنموذج GPT-4o، وواجه المستخدمون صعوبة في التعامل مع النموذج بعد أن لوحظ ميله للإيجابية المفرطة، مما أثار قلقًا بشأن التوجيهات والمواقف المعبر عنها، تفاعلات غير متزنة من النموذج فجرت موجة من التعليقات على منصات التواصل.
رداً على هذه الانتقادات، أعلنت OpenAI عن إجراء تعديلات شاملة تشمل إطلاق مرحلة تجريبية لبعض النماذج الجديدة، حيث سيتمكن المستخدمون من تجربتها وتقديم ملاحظاتهم قبل التنفيذ الرسمي، في النهاية، تبقى جهود OpenAI مثيرة للاهتمام وتؤكد أن الشفافية في الذكاء الاصطناعي تظل موضوعًا هامًا في وقتنا الحالي.