به گزارش آفتاب شرق
مطابق گزارشهای تازه، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوهبراین، آزمایشهای دیگر نشان دادهاند که این هوش مصنوعی با تحول جزئی در نحوه سوال، جوابهای کاملاً متناقضی اراعه میدهد. این اشتباهات فاحش علتایجاد نگرانیهایی درمورد به کارگیری این فناوریهای نابالغ در محیطهای بالینی شده است.
در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیتهای مدل هوش مصنوعی Med-Gemini انتشار شده می بود، این مدل در تحلیل سیتی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیونهای پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام تازه اختراع کرده می بود.
محققان و پزشکان این اشتباه را «بسیار خطرناک» توصیف میکنند. آنها میگویند: «این دو کلمه گوناگون، یک دنیا تفاوت تشکیل میکنند.» تشخیص نادرست بین این دو ناحیه میتواند به پروتکلهای درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.
عضو خیالی مغز که توسط هوش مصنوعی گوگل تشکیل شد
به گزارش ورج، بعد از آنکه دکتر «برایان مور» (Bryan Moore)، عصبشناس، این نادرست فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تحول «Basilar» به «Basal»، نوشته را یک «غلط تایپی» ساده نمود دهد. اما بعد از فشارهای زیاد تر، گوگل با برگشت دادن عبارت نادرست، در توضیحی تازه ادعا کرد که این یک «نادرست رایج در رونویسی» است که هوش مصنوعی از دادههای آموزشی خود یاد گرفته است.
مشکلات به همین جا ختم نمیشود. آزمایشهای انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدلهای هوش مصنوعی آشکار کرده است: عدم ارامش در جوابدهی.
دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. هنگامی دکتر سؤالش را با جزئیات کامل (شامل اراعه سن و جنسیت بیمار) سوال کرد، هوش مصنوعی مشکل را به درستی تشخیص داد. اما هنگامی همان عکس را با یک سوال سادهتر (فقطً «در این عکس چه میبینی؟») به هوش مصنوعی نشان داد، جواب کاملاً متفاوت می بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را مشخص می کند.» و مشکل بهطور کامل نادیده گرفته شد.
این قضیه مشخص می کند که کوچکترین تغییری در نحوه تعامل با هوش مصنوعی میتواند تبدیل نتایج کاملاً متضاد و خطرناک شود.
کارشناسان اعتقاد دارند بزرگترین خطر این سیستمها، اشتباهات گاهبهگاه آنها نیست، بلکه مطمعن به لحن متقاعدکنندهای است که با آن، اطلاعات غلط (همانند وجود گانگلیون بازیلر) را به گفتن یک حقیقت علمی گفتن میکنند.
دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این اتفاق را به رانندگی خودکار تشبیه میکند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم میگیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق میافتد.»
درکل اتفاقای که به آن «سوگیری اتوماسیون» (Automation Bias) حرف های میشود، میتواند علتشود پزشکان به علت کارکرد عمدتاً صحیح هوش مصنوعی، از بازدید دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان میگویند این مدلها ذاتاً تمایل به ساختن چیزها دارند و هیچ زمان نمیگویند «من نمیدانم» و این یک مشکل زیاد بزرگ در حوزههای پرخطری همانند پزشکی است.
دسته بندی مطالب
اخبار سلامتی 

 
			 
		 
		 
		