شركات الذكاء الاصطناعي تعزز الرقابة الأبوية لحماية المراهقين من المخاطر الرقمية

بدأت شركات الذكاء الاصطناعي في اتخاذ خطوات جديدة لحماية المراهقين من الأضرار المحتملة الناتجة عن استخدام تقنيات مثل روبوتات الدردشة الذكية، حيث أعلنت شركة OpenAI عن نيتها إدخال أدوات للرقابة الأبوية لضمان استخدام آمن لتطبيق ChatGPT، وذكرت في مدونتها أن هذه الأدوات سوف تساعد الآباء على فهم كيفية استخدام أبنائهم المراهقين للتطبيق، بما في ذلك خيارات للتحكم في هذا الاستخدام.
تسعى OpenAI أيضًا إلى إدخال خاصية تخصيص جهات اتصال للطوارئ، تهدف هذه الميزة إلى تنبيه الآباء عندما يشعر المراهقون بالقلق أو يمرون بأزمة عاطفية، حيث يتوفر حاليًا فقط توصيات للمساعدة، تأتي هذه الخطوة في ظل مخاوف متزايدة واهتمامات بحثية حول تأثيرات الذكاء الاصطناعي على الصحة النفسية.
إلى جانب ChatGPT، تشمل الدراسة أيضًا روبوتات من شركات أخرى مثل Anthropic وGoogle، مما يسهم في تسليط الضوء على أهمية الرقابة الأبوية، وكشفت تحقيقات سابقة عن أن روبوتات الدردشة قد تحتوي على مخاطر، خاصة في مناقشات تتعلق بالصحة النفسية.
تحديات جديدة تواجه المراهقين
في السنوات الأخيرة، تمت الإشارة إلى نماذج روبوتات دردشة تعرضت لانتقادات بسبب تقديمها نصائح مضللة حول مواضيع حساسة مثل اضطرابات الأكل، كما تم الكشف عن حالات مثيرة للقلق تتعلق بالدعم السلبي المقدم للمراهقين عبر هذه التطبيقات،
في هذا السياق، تشدد أهمية الرقابة الأبوية على المراهقين عند استخدام الذكاء الاصطناعي، وفي ظل تنامي شعبية موبايل تيك بلس وتقنيات أخرى، يجدر بالآباء والمهتمين بالمجال الانتباه إلى التحديات التي قد تنجم عن الاستخدام غير المراقب.