تنطلق دعوة لاستكشاف عقل الذكاء الاصطناعي ومراقبة “أفكار” النماذج الذكية
في خطوة مهمة، دعا عدد من كبار الباحثين في مجال الذكاء الاصطناعي، مثل OpenAI وGoogle DeepMind وAnthropic، إلى ضرورة مراقبة ما يُعرف بـ"أفكار" النماذج الذكية، جاء ذلك في ورقة بحثية أصدروها مؤخرًا، حيث أشاروا إلى أن فهم هذه الأفكار يمكن أن يساهم في تطوير نظم أمان أفضل لتلك النماذج.
يبرز في هذه الورقة مفهوم سلاسل التفكير، والذي يتعلق بكيفية معالجة النماذج المعقدة للمعلومات بطريقة مشابهة للإنسان عند استخدامه لأوراق خارجية في حل المسائل، تُعتبر هذه العملية جزءًا أساسيًا من النماذج المتقدمة مثل o3 وR1، والتي تهدف إلى تطوير أنظمة ذكاء اصطناعي أكثر استقلالًا.
ضرورة الفهم والتحليل
في سياق الورقة، تم التأكيد على أهمية مراقبة سلاسل التفكير لفهم كيفية اتخاذ النماذج لقراراتها، ورغم القيمة الكبيرة لهذه المراقبة، لا يوجد ضمان لاستمرار مستوى الشفافية المطلوب، وقد دعت الورقة المطورين والباحثين إلى دراسة العوامل التي تؤثر في القدرة على إظهار هذه السلاسل، محذرةً من أن أي تدخلات غير مدروسة قد تضر بالعملية.
أصوات من الخبراء
توقيع عدد من الأسماء اللامعة في مجال التكنولوجيا على هذه الورقة يعكس أهمية الموضوع، حيث يُبرز كل من: مارك تشين، وإيلْيا سوتسكيفر، وجيفري هينتون، وغيره، دورهم الفاعل في هذا المجال، وبهذا الخصوص، عبر بوين بيكر من OpenAI أن هذه اللحظة تعتبر مفصلية، وسلط الضوء على أهمية تسليط الضوء على تقنيات التفكير المتسلسل لتفادي إهمالها مستقبلاً.
تنافس الشركات العملاقة
أطلقت OpenAI نموذجها الأول في سبتمبر 2024، وتبعته نماذج متطورة من شركات أخرى في الأشهر التالية، ورغم الأداء الجيد، لا يزال هناك غموض حول كيفية تفكير هذه النماذج، شركة Anthropic، وهي من الأسماء الرائدة في هذا المجال، تتطلع إلى فك شيفرة "الصندوق الأسود" للذكاء الاصطناعي بحلول عام 2027، داعية الشركات الكبرى للمشاركة.
آفاق جديدة في الأبحاث
تسعى هذه الورقة إلى جذب المزيد من الاستثمارات في مجال تفسير الذكاء الاصطناعي، في وقت تتسابق فيه الشركات لتوظيف أفضل الكفاءات، سلاسل التفكير قد تشكل أداة مهمة للمراقبة، وقد تعزز الأمان والشفافية في المستقبل، مما يضيف بعدًا جديدًا لسباق الذكاء الاصطناعي الذي يتطور بسرعة كبيرة.