اشاره به عضوی که وجود خارجی ندارد_آفتاب شرق

مریم یزدانی
4 Min Read


به گزارش آفتاب شرق

مطابق گزارش‌های تازه، مدل پیشرفته پزشکی گوگل، Med-Gemini، در یک مقاله تحقیقاتی از یک عضو غیرواقعی در مغز انسان نام برده است. علاوه‌براین، آزمایش‌های دیگر نشان داده‌اند که این هوش مصنوعی با تحول جزئی در نحوه سوال، جواب‌های کاملاً متناقضی اراعه می‌دهد. این اشتباهات فاحش علتایجاد نگرانی‌هایی درمورد به کارگیری این فناوری‌های نابالغ در محیط‌های بالینی شده است.

در یک مقاله تحقیقاتی که توسط خود گوگل برای نمایش قابلیت‌های مدل هوش مصنوعی Med-Gemini انتشار شده می بود، این مدل در تحلیل سی‌تی اسکن سر، یک ناهنجاری را در «گانگلیون بازیلر» (Basilar Ganglia) تشخیص داد؛ بخشی از مغز که اصلاً وجود خارجی ندارد. این هوش مصنوعی، دو ساختار کاملاً مجزا و متفاوت در مغز، یعنی «گانگلیون‌های پایه» (Basal Ganglia) و «شریان بازیلر» (Basilar Artery) را با هم ترکیب و یک نام تازه اختراع کرده می بود.

محققان و پزشکان این اشتباه را «بسیار خطرناک» توصیف می‌کنند. آنها می‌گویند: «این دو کلمه گوناگون، یک دنیا تفاوت تشکیل می‌کنند.» تشخیص نادرست بین این دو ناحیه می‌تواند به پروتکل‌های درمانی کاملاً متفاوت و بالقوه مرگبار برای بیمار منجر شود.

عضو خیالی مغز که توسط هوش مصنوعی گوگل تشکیل شد

به گزارش ورج، بعد از آنکه دکتر «برایان مور» (Bryan Moore)، عصب‌شناس، این نادرست فاحش را به گوگل گزارش داد، این شرکت در ابتدا تلاش کرد تا با ویرایش پنهانی پست وبلاگ خود و تحول «Basilar» به «Basal»، نوشته را یک «غلط تایپی» ساده نمود دهد. اما بعد از فشارهای زیاد تر، گوگل با برگشت دادن عبارت نادرست، در توضیحی تازه ادعا کرد که این یک «نادرست رایج در رونویسی» است که هوش مصنوعی از داده‌های آموزشی خود یاد گرفته است.

مشکلات به همین جا ختم نمی‌شود. آزمایش‌های انجام شده توسط متخصصان دیگر، یک ضعف اساسی دیگر را در این مدل‌های هوش مصنوعی آشکار کرده است: عدم ارامش در جواب‌دهی.

دکتر «جودی گیچویا» (Judy Gichoya) از دانشگاه اموری، در آزمایشی یک عکس رادیولوژی از قفسه سینه را به مدل جدیدتر گوگل، MedGemma، نشان داد. هنگامی دکتر سؤالش را با جزئیات کامل (شامل اراعه سن و جنسیت بیمار) سوال کرد، هوش مصنوعی مشکل را به درستی تشخیص داد. اما هنگامی همان عکس را با یک سوال ساده‌تر (فقطً «در این عکس چه می‌بینی؟») به هوش مصنوعی نشان داد، جواب کاملاً متفاوت می بود: «این عکس یک قفسه سینه نرمال از یک فرد بزرگسال را مشخص می کند.» و مشکل به‌طور کامل نادیده گرفته شد.

این قضیه مشخص می کند که کوچک‌ترین تغییری در نحوه تعامل با هوش مصنوعی می‌تواند تبدیل نتایج کاملاً متضاد و خطرناک شود.

کارشناسان اعتقاد دارند بزرگ‌ترین خطر این سیستم‌ها، اشتباهات گاه‌به‌گاه آنها نیست، بلکه مطمعن به لحن متقاعدکننده‌ای است که با آن، اطلاعات غلط (همانند وجود گانگلیون بازیلر) را به گفتن یک حقیقت علمی گفتن می‌کنند.

 دکتر «جاناتان چن» (Jonathan Chen) از دانشگاه استنفورد، این اتفاق را به رانندگی خودکار تشبیه می‌کند: «ماشین آنقدر خوب رانندگی کرده است که شما تصمیم می‌گیرید پشت فرمان بخوابید. این دقیقاً همان جایی است که خطر اتفاق می‌افتد.»

سریعترین موتور جستجوگر خبر پارسی – اخبار لحظه به لحظه از معتبرترین خبرگزاری های پارسی زبان در آفتاب شرق

درکل اتفاق‌ای که به آن «سوگیری اتوماسیون» (Automation Bias) حرف های می‌شود، می‌تواند علتشود پزشکان به علت کارکرد عمدتاً صحیح هوش مصنوعی، از بازدید دقیق نتایج آن غافل شوند و اشتباهات فاحش را نادیده بگیرند. کارشناسان می‌گویند این مدل‌ها ذاتاً تمایل به ساختن چیزها دارند و هیچ زمان نمی‌گویند «من نمی‌دانم» و این یک مشکل زیاد بزرگ در حوزه‌های پرخطری همانند پزشکی است.

دسته بندی مطالب
اخبار سلامتی

اخبار اجتماعی

اخبار ورزشی

فرهنگ وهنر

اخبار تکنولوژی

کسب وکار

TAGGED:
Share This Article