شرکت OpenAI، سازنده چتبات هوش مصنوعی ChatGPT، از مجموعهای از دستورالعملها و ابزارهای تازه موسوم به «چهارچوب آمادگی» (Preparedness Framework) برای نظارت بر هوش مصنوعی و خطرات آن رونمایی کرد. این کار از طریق یک گروه مشورتی برای ضمانت ایمنی انجام خواهد شد که حتی حق وتوی نظرات «سم آلتمن» را خواهد داشت.
بهجستوجو جنجالهای بسیاری که با اخراج و برگشت سم آلتمن به سمت مدیرعاملی OpenAI رقم خورد، این شرکت اکنون در وبلاگ خود از چهارچوب جدیدی برای آمادگی در برابر خطرات رونمایی کرده است. بهنظر میرسد که مقصد از انتشار کردن عمومی این سند، نمایش مسیر اشکار شرکت درزمینه شناسایی، تحلیل و تصمیمگیری حوالی ریسکهای جدی درخصوص مدلهای هوش مصنوعی خواهد می بود.
چهارچوب آمادگی OpenAI برای ضمانت ایمنی مدلهای هوش مصنوعی
مطابق این چهارچوب، مدلهایی که در دست گسترش قرار دارند، توسط تیم «ایمنی سیستمها» برسی خواهند شد. مدلهای پیشگام OpenAI نیز تحت نظارت تیم «آمادگی» قرار میگیرند تا ریسکهای احتمالی پیش از اراعه مدلها، شناسایی و برسی شوند. افزونبراین، یک تیم دیگر به نام «فراهمسویی» وجود دارد که روی حدومرزهای نظری برای مدلهای «فراهوشمند» کار میکند.
دو دسته اول که ملموسترند و مدلهای آنها را در اختیار داریم، کار راحتتری دارند و فهمیدن فعالیتهای آنها نیز آسانتر است. این تیمها باید بر پایه چهار طبقهبندی ریسکها را برسی کنند: امنیت سایبری، «قانعکنندگی» (برای مثالً در اراعه اطلاعات غلط)، آناتومی مدلها (برای مثالً در قابلیتهای عملکردی خود) و CBRN (مخفف تهدیدات شیمیایی، زیستی، رادیولوژیک و هستهای؛ برای مثالً در قابلیت هوش مصنوعی در تشکیل پاتوژنهای تازه).
تیم «آمادگی» اولینبار در ماه اکتبر معارفه شد و یکی از سه گروه مجزایی است که بر ایمنی هوش مصنوعی در این استارتاپ نظارت میکند. مدیر این تیم «الکساندر مادری» است که امید دارد بتواند با این دستورالعملهای تازه، ریسکهای احتمالی را بهموقع در مدلهای هوش مصنوعی شناسایی کند.
زمانها است که نگرانیهایی درمورد مدلهای هوش مصنوعی قوی نقل میبشود و بهنظر میرسد که این عمل OpenAI پاسخی در برابر تشدید این نگرانیها با دقت به تغیرات تازه این شرکت باشد.
منبع