شركات الذكاء الاصطناعي تعزز الرقابة الأبوية لحماية المراهقين من المخاطر الرقمية

تاريخ النشر: منذ 2 ساعة
🖊️ admin

بدأت شركات الذكاء الاصطناعي في اتخاذ خطوات جديدة لحماية المراهقين من الأضرار المحتملة الناتجة عن استخدام تقنيات مثل روبوتات الدردشة الذكية، حيث أعلنت شركة OpenAI عن نيتها إدخال أدوات للرقابة الأبوية لضمان استخدام آمن لتطبيق ChatGPT، وذكرت في مدونتها أن هذه الأدوات سوف تساعد الآباء على فهم كيفية استخدام أبنائهم المراهقين للتطبيق، بما في ذلك خيارات للتحكم في هذا الاستخدام.

تسعى OpenAI أيضًا إلى إدخال خاصية تخصيص جهات اتصال للطوارئ، تهدف هذه الميزة إلى تنبيه الآباء عندما يشعر المراهقون بالقلق أو يمرون بأزمة عاطفية، حيث يتوفر حاليًا فقط توصيات للمساعدة، تأتي هذه الخطوة في ظل مخاوف متزايدة واهتمامات بحثية حول تأثيرات الذكاء الاصطناعي على الصحة النفسية.

إلى جانب ChatGPT، تشمل الدراسة أيضًا روبوتات من شركات أخرى مثل Anthropic وGoogle، مما يسهم في تسليط الضوء على أهمية الرقابة الأبوية، وكشفت تحقيقات سابقة عن أن روبوتات الدردشة قد تحتوي على مخاطر، خاصة في مناقشات تتعلق بالصحة النفسية.

تحديات جديدة تواجه المراهقين

في السنوات الأخيرة، تمت الإشارة إلى نماذج روبوتات دردشة تعرضت لانتقادات بسبب تقديمها نصائح مضللة حول مواضيع حساسة مثل اضطرابات الأكل، كما تم الكشف عن حالات مثيرة للقلق تتعلق بالدعم السلبي المقدم للمراهقين عبر هذه التطبيقات،

في هذا السياق، تشدد أهمية الرقابة الأبوية على المراهقين عند استخدام الذكاء الاصطناعي، وفي ظل تنامي شعبية موبايل تيك بلس وتقنيات أخرى، يجدر بالآباء والمهتمين بالمجال الانتباه إلى التحديات التي قد تنجم عن الاستخدام غير المراقب.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى