OpenAI، استارتاپ سازنده ChatGPT، با وجود نظارت فعالان این حوزه و این چنین والدین، تیم جدیدی را راه اندازی داده است که مقصد آن مطالعه در رابطه راههای جلوگیری از سوء منفعت گیری از کودکان با پشتیبانی ابزارهای هوش مصنوعی است.
بر پایه گزارش تک کرانچ، OpenAI در صفحه آگهیهای شغلی خود به تیم امنیت کودکان اشاره کرده است و میگوید که این تیم با گروههای حقوقی، تحقیقاتی و قانونگذار OpenAI و این چنین شرکای خارجی همکاری میکند تا بتواند «فرایندها و حوادث» مربوط به کاربران زیر سن قانونی را مدیریت کند.
اکنون این تیم به جستوجو استخدام یک متخصص اجرای ایمنی کودکان است که ماموریت او اعمال سیاستهای OpenAI در عرصه محتوای تشکیلشده توسط هوش مصنوعی و این چنین کار روی فرایندهای بازدید مرتبط با محتوای «حساس» (به گمان زیادً مربوط به کودکان) است.
کودکان و نوجوانان اکنون زیاد تر از قبل برای انجام تکالیف خود و این چنین مسائل شخصی از ابزارهای هوش مصنوعی منفعت گیری میکنند. بر پایه یک نظرسنجی که توسط مرکز دموکراسی و فناوری انجام شده است، ۲۰ درصد کودکان از ChatGPT برای مقابله با اضطراب یا مشکلات مربوط به سلامت روان، ۲۲ درصد برای مشکلات خود با دوستان و ۱۶ درصد برای درگیریهای خانوادگی پشتیبانی گرفتهاند.
با این حال، برخی افراد از این نوشته بهگفتن یک زنگ خطر یاد کردهاند.

تابستان قبل، برخی مدارس و کالجها تلاش کردند تا منفعت گیری از ChatGPT را به علت سرقت دبی و هراس اراعه اطلاعات نادرست ممنوع کنند. هرچند از آن زمان تا بحال برخی از این محدودیتها برداشته شداند، اما پتانسیل ابزارهای هوش مصنوعی برای تشکیل اطلاعات نادرست یا تصاویری که علتناراحتی دیگران میبشود، همیشه عامل نگرانی بوده است.
OpenAI که با انتشار کردن مدل هوش مصنوعی ChatGPT نام خود را به سر زبانها انداخت، در چند زمان قبل با نگرانیهای بسیاری از سوی فعالان و کارشناسان روبه رو شده است. این شرکت در همین جهت اخیراً اظهار کرده می بود برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه میکند.
منبع