[ad_1]
 به گزارش آفتاب شرق
شرکت OpenAI بهتازگی با انتشار کردن یک مقاله دلایل پشت پرده توهمات هوش مصنوعی را کشف کرده برای از بین بردن این مشکل مجموعهای از راهحلها را نیز نظر داده است.
چتباتهای هوش مصنوعی اکنون در کلاسهای درس، محلهای کار و زندگی روزمره نقش فعالی دارند، اما این محصولات هم چنان از یک نقص آزاردهنده رنج میبرند. این چتباتها بعضی اوقات مطالب نادرست میسازند، اتفاقای که به آن «توهم» حرف های میشود این مدل نتایج اراعه شده توسط هوش مصنوعی میتوانند کاملاً قانعکننده به نظر برسند، اما در حقیقت کاملاً نادرست می باشند.
OpenAI میخواهد سیستمهای هوش مصنوعی بدون توهم بسازد
اما اکنون شرکت OpenAI اظهار کرده که دریافته چرا این اتفاق رخ میدهد و معتقد است راهکاری اشکار کرده که میتواند ابزارهای هوش مصنوعی آینده را زیاد قابلاعتمادتر کند. این شرکت اخیراً مقالهای ۳۶ صفحهای انتشار کرده که با همکاری «سانتوش ومپالا» از دانشگاه جورجیا تک و چند پژوهشگر دیگر نوشته شده است و به بازدید مشکل توهم زدن هوش مصنوعی میپردازد.
به حرف های محققان، توهمات لزوماً ناشی از طراحی ضعیف مدل نیستند، بلکه به نحوه آزمون و رتبهبندی سیستمهای هوش مصنوعی مربوط خواهد شد. بر پایه معیارهای جاری، یک چتبات در صورت جوابدادن به یک سوال، حتی اگر به این سوال جواب نادرست بدهد، پاداش دریافت میکند. این درحالی است که این معیارها مدلهایی را که در صورت عدم مطمعن کافی به یک سوال جواب نمیدهند را تنبیه میکنند.
محققان میگویند میتوان این نوشته را به یک امتحان چندگزینهای تشبیه کرد که دانشآموز را بهجای این که سوال را بیجواب بگذارد به گمانزدن جواب تشویق میکند.
این مقاله برای مقابله با این چنین مشکلی نظر میکند که سیستم امتیازدهی معکوس شود. یعنی جوابهای «با اعتمادبهنفس اما نادرست» باید بهشدت به زیان مدل همه شوند، درحالیکه برای احتیاط کردن یا اذعان به نداشتن قطعیت به مدل پاداش داده شود.
منفعت گیری از این رویکرد انگارً کار امد نیز بوده است. در یک معیار برسی، یک مدل محتاط تنها به نیمی از سوالها جواب داد اما ۷۴ درصد آنها درست می بود، درحالیکه مدل فرد دیگر تقریباً به همه سوالها جواب داد؛ اما در سه مورد از هر چهار بار دچار توهم شد.
دسته بندی مطالب
اخبار سلامتی 
[ad_2]
