به گزارش آفتاب شرق
اواسط نوامبر ۲۰۲۳ «پیتر تیل» میلیاردر مشهور طی صحبتی با «سم آلتمن»، مدیرعامل زمان OpenAI درمورد پیشرفتهای هوش مصنوعی ابراز نگرانی کرد. او با وجود پیروزی آلتمن در راهاندازی ChatGPT دلواپس خطرات هوش مصنوعی می بود. پیتر تیل از آلتمن خواست هشدارها را جدی بگیرد و دقت کند که اعضای OpenAI هم دلواپس خطرات هوش مصنوعی می باشند.
همه این نگرانیها درحالی نقل میشد که آلتمن زیاد به آنها اعتنا نمیکرد و به رشد شرکت و پیروزیهایشان در گسترش هوش مصنوعی میپرداخت. او فکر میکرد با سوددهی بالای شرکت و افزایش قیمت OpenAI به ۸۶ میلیارد دلار، جای نگرانی نیست و نباید درمورد هشدارها حساسیت به خرج داد. یقیناً طبیعی هم می بود؛ سم آلتمن در ۳۸ سالگی ماههای خوبی را سپری میکرد و فناوریهای او پیشگامانه می بود.
اما در همین میانه، چهار عضو هیئتمدیره OpenAI درمورد اخراج سم آلتمن او گفت و گو میکردند. آنها بهدلایل مختلفی همانند مشکلات مدیریتی، عدم شفافیت، نقض فرایندهای ایمنی و مالی و عدم مطمعن متقابل از او نومید شده بودند. یقیناً اخراج آلتمن به همین سادگی نبوده است؛ با این که او سهامی نداشت روی کارمندان و هیئتمدیره اثرگذار می بود و در کنار همکار و همبنیانگذار شرکت «گرگ براکمن»، اجازه ندادند حتی اسم برخی گزینهها برای مدیریت OpenAI نقل شود. این کشمکش بین سم آلتمن و هیئتمدیره یکی از جنجالیترین دورههای مدیریت تاریخ سیلیکونولی را به همراه داشت.
چه عواملی علتاخراج سم آلتمن شد؟
مجله «والاستریتژورنال» در مطلبی به بازدید عوامل پشتپرده اخراج سم آلتمن پرداخته است. یکی از مهمترین مشکلات سم آلتمن و هیئتمدیره شرکت، مشکلات مرتبط با فرایندهای ایمنی و شفافیت در رابطه فناوریهای تازه می بود. سال ۲۰۲۲ مایکروسافت و OpenAI هیئت ایمنی مشترکی راه اندازی دادند تا محصولات تازه همانند نسخههای آپدیتشده GPT-4 قبل از اراعه مورد بازدید قرار بگیرند.
در جلسهای، سم آلتمن ادعا کرد که سه ویژگی تازه این مدل قبول شدهاند. اما سپس از این که «هلن تونر»، عضو زمان هیئتمدیره از او خواست این تأییدیهها را اراعه کند اشکار شد تنها یکی از این ویژگیها مورد قبول قرار گرفته است؛ موضوعی که نشان میداد آلتمن شفافیت ملزوم درمورد فعالیتها با هیئتمدیره ندارد و هلن تونر و «تاشا مککاولی»، دیگر عضو اسبق هیئتمدیره مطمعن خود را نسبت به مدیر زمان شرکت از دست دادند. این دو بعدها در مصاحبهای از اخراج سم آلتمن دفاع کردند و انها گفتند با برگشت وی در رأس کار، نمیتوان به OpenAI مطمعن کرد تا خودش مسئول نظارت بر هوش مصنوعی باشد.

اما درحالیکه هیئت ایمنی مشترک روی بازدید خطرات این فناوریها کار میکرد، مایکروسافت مستقلاً و بدون تأییدیه ایمنی مدل GPT-4 را در هند آزمایش کرد. این کار تأییدیه هیئتمدیره را نداشت و آنها از طریق یکی از کارمندان فهمید عمل های ردموندیها شدند. این تخلف در شرایطی اتفاق افتاد که آلتمن و برخی مدیران ارشد OpenAI در جلسات هیئتمدیره اشارهای هم به این کار نکرده بودند.
عامل فرد دیگر که به افت مطمعن هیئتمدیره منجر شد، قضیه مربوط به صندوق اندوختهگذاری استارتاپ OpenAI می بود. این صندوق سال ۲۰۲۱ با مقصد اندوختهگذاری در استارتاپهای هوش مصنوعی تأسیس شد و قرار می بود OpenAI مستقیماً روی آن نظارت کند. اما در تابستان ۲۰۲۳، یکی از اعضای هیئتمدیره شرکت در یک مهمانی درمورد این صندوق شنید که سودهای آن به اندوختهگذاران OpenAI تعلق نمیگیرد، برخلاف آنچه اظهار شده می بود. این قضیه نگرانیهایی درمورد مدیریت مالی و منفعت گیری از منبع های صندوق به وجود آورد و بحران درونی سازمان را جدیتر کرد.
این عمل های مطمعن هیئتمدیره به سم آلتمن را به حداقل رساند. گزارشهای گوناگون نشان میداد آلتمن اطلاعات مهمی را نهان کرده و با اعضا و اندوختهگذاران شفافیت نداشته است. این تخلفات در نهایت علتشد آلتمن از سمت مدیریت برکنار شوند، هرچند پشتیبانیهای «ساتیا نادلا» و کارمندان OpenAI علتشد او مجدد به صندلیاش بهگفتن مدیرعامل OpenAI برگردد.
دسته بندی مطالب
اخبار سلامتی