به گزارش آفتاب شرق
OpenAI بهتازگی دو مدل زبانی متنباز با نام gpt-oss را انتشار کرد که کاربران میتوانند آنها را روی سیستم خود اجرا کنند. در ادامه آموزش نصب هوش مصنوعی متنباز OpenAI روی سه سیستمعامل ویندوز، لینوکس و macOS را بهصورت تصویری توضیح خواهیم داد.
نسخه سبکتر این مدلها یعنی gpt-oss-20b با ۲۱ میلیارد پارامتر، تنها به نزدیک به ۱۶ گیگابایت حافظه نیاز دارد. در روبه رو، مدل سنگینتر با نام gpt-oss-120p شامل ۱۱۷ میلیارد پارامتر میشود و اجرای آن به ۸۰ گیگابایت حافظه نیاز دارد. برای قیاس، یک مدل پیشرفته همانند DeepSeek R1 نزدیک به ۶۷۱ میلیارد پارامتر دارد و برای اجرا به چیزی در نزدیک به ۸۷۵ گیگابایت حافظه نیاز دارد.
به این علت اگر سیستم شما یک سرور قوی مخصوص هوش مصنوعی نباشد، بهگمان زیاد نمیتوانید مدل gpt-oss-120b را اجرا کنید. اما تعداد بسیاری از کاربران خانگی امکان منفعت گیری از مدل gpt-oss-20b را دارند. برای این کار، سیستم شما باید یکی از این دو شرط زیر را داشته باشد:
- یک کارت گرافیک با حداقل ۱۶ گیگابایت VRAM اختصاصی
- یا حداقل ۲۴ گیگابایت RAM کلی (که از این مقدار، نزدیک به ۸ گیگابایت برای سیستم عامل و برنامهها در نظر گرفته میشود)
این چنین کارکرد این مدل بهشدت وابسته به پهنای باند حافظه است. به این علت کارتهای گرافیک دارای حافظه GDDR7 یا GDDR6X با پهنای باند ۱۰۰۰ گیگابایتبرثانیه یا زیاد تر، زیاد بهتر از سیستمهای معمولی با رم DDR4 یا DDR5 (با پهنای باند ۲۰ تا ۱۰۰ گیگابایتبرثانیه) عمل میکنند.
آموزش نصب هوش مصنوعی OpenAI روی کامپیوتر و لپتاپ
در ادامه، مرحله های اجرای این مدل را بهصورت رایگان روی سیستمعاملهای ویندوز، لینوکس و macOS توضیح میدهیم. برای این کار از Ollama منفعت گیری می کنیم؛ اپلیکیشن رایگانی که نصب و اجرای این مدل زبانی را زیاد ساده میکند.
اجرای مدل gpt-oss-20b در ویندوز
اجرای این مدل زبانی تازه در ویندوز زیاد ساده است. برای اغاز، ابتدا باید برنامه Ollama را برای ویندوز دانلود و نصب کنید.
بعد از اجرای Ollama، در پنجره مهم یک فیلد با گفتن Send a message خواهید دید. در پایین سمت راست نیز یک منوی کشویی قرار دارد که مدلهای قابل منفعت گیری را نمایش میدهد. بهصورت پیشفکر، مدل gpt-oss:20b انتخاب شده است. میتوانید مدل فرد دیگر را انتخاب کنید، اما فعلاً با همین مدل کار را ادامه میدهیم.
در فیلد مطلب، هر دستوری که دوست دارید را میتوانید داخل کنید. بعد از داخل کردن مطلب، برنامه اغاز به دانلود فایل مدل کرده که حجمی برابر با ۱۲.۴ گیگابایت دارد. شدت دانلود امکان پذیر پایین باشد، بعد مقداری صبور باشید.
بعد از پایان دانلود، میتوانید هر دستوری که مایل هستید را داخل کرده و با کلیک روی دکمه فلش، جواب آن را دریافت کنید.
این چنین اگر ترجیح میدهید بدون رابط گرافیکی (GUI) و از طریق خط فرمان کار کنید، Ollama این امکان را نیز فراهم کرده است. در واقع، اجرای برنامه از طریق Command Prompt مزایایی هم دارد؛ همانند فعالسازی حالت verbose که آمار کارکرد مدل همانند زمان زمان جوابدهی را نمایش میدهد.
برای اجرای Ollama از طریق CMD، ابتدا باید این دستور را داخل کنید:
ollama run gpt-oss
اگر این اولین بار است که این مدل را اجرا میکنید، Ollama بهطور خودکار مدل را از اینترنت دانلود خواهد کرد. بعد از دانلود و نمایش اعلان آماده به کار، این دستور را داخل کنید:
/set verbose
در نهایت، خواست خود را تایپ کرده و Enter بزنید تا مدل جواب دهد.
اجرای مدل gpt-oss-20b در لینوکس
برای این که مدل OpenAI را روی لینوکس اجرا کنید، ابتدا باید یک پنجره ترمینال باز کنید. سپس دستور زیر را در ترمینال داخل کنید:
curl -fsSL https://ollama.com/install.sh | sh
با این کار، برنامه Ollama بهصورت خودکار دانلود و نصب خواهد شد. بسته به شدت اینترنت شما، امکان پذیر فرایند دانلود چند دقیقه طول بکشد.
بعد از پایان نصب، برای اجرای مدل gpt-oss:20b این دستور را داخل کنید:
ollama run gpt-oss
در اولین اجرا، نزدیک به ۱۳ گیگابایت داده باید دانلود شود تا مدل آماده به کار شود. بعد از آن، میتوانید خواست خود را داخل کرده و جواب مدل را دریافت کنید.
با دستور زیر هم میتوانید حالت verbose را فعال کنید تا آمارهایی همانند زمان زمان جوابدهی مدل را مشاهده کنید:
/set verbose
سپس میتوانید مطلب یا دستور خود را تایپ کرده و اجرا کنید.


اجرای مدل gpt-oss-20b در مک
اگر از مکبوک یا مک دسکتاپی با پردازنده M1 یا بالاتر منفعت گیری میکنید، اجرای مدل gpt-oss-20b بهسادگی نسخه ویندوز خواهد می بود. کافی است نسخه مخصوص macOS از برنامه Ollama را دانلود و نصب کنید.
بعد از نصب، برنامه را اجرا کرده و یقین شوید که مدل انتخابشده gpt-oss:20b باشد.
سپس در فیلد مطلب، خواست خود را داخل کرده و روی دکمه فلش رو به بالا کلیک کنید تا جواب مدل را دریافت کنید. به همین سادگی در مک خود توانستهاید از هوش مصنوعی OpenAI منفعت گیری کنید.


چه انتظاری میتوان از کارکرد gpt-oss-20b داشت؟
رسانه The Register برای آزمایش کارکرد این مدل روی لپتاپها، چند دستگاه گوناگون را برگزیده است:
- لپتاپ Lenovo ThinkPad X1 Carbon با پردازنده Core Ultra 7-165U و رم ۶۴ گیگابایتی LPDDR5x-6400
- مکبوک پرو با چیپ M1 Max و رم ۳۲ گیگابایتی LPDDR5x-6400
- کامپیوتر دسکتاپ خانگی با کارت گرافیک Nvidia RTX 6000 Ada، پردازنده AMD Ryzen 9 5900X و رم ۱۲۸ گیگابایتی DDR4-3200
به هر سه دستگاه نیز دستور نوشتن یک نامه عاشقانه و سوال «اولین رئیسجمهور آمریکا چه فردی می بود؟» اراعه شده است.
این رسانه میگوید که روی لپتاپ تینکپد X1، کارکرد زیاد ضعیف بوده، چون Ollama فعلاً نمیتواند از گرافیک مجتمع یا واحد پردازش عصبی (NPU) این دستگاه منفعت گیری کند و همه بار پردازش روی CPU افتاد. بههمینعلت تشکیل نامه عاشقانه ۱۰ دقیقه و ۱۳ ثانیه طول کشیده است!
جواب به سوال ساده «اولین رئیسجمهور آمریکا چه فردی می بود؟» نیز ۵۱ ثانیه به کاربر اراعه شده است.
مکبوک پرو و تینکپد رم یکسانی دارند، اما این گزارش میگوید که دستگاه اپل با اختلاف زیاد بهتر عمل کرده است. مک بوک نامه را در 26 ثانیه نوشته و تنها در ۳ ثانیه به سوال جواب داده است.
اما مطابق انتظار، سیستم دسکتاپ با کارت گرافیک قوی RTX 6000 بهترین کارکرد را داشته است. این سیستم نامه را در ۶ ثانیه و جواب سوال را در کمتر از نیم ثانیه به وجود اورده است.
دسته بندی مطالب
اخبار سلامتی
