Openai و Nvidia در مدل استدلال منبع باز GPT-OSS همکاری می کنند و در GeForce اجرا می شود

جزئیات کنجکاو از مدل های محبوب AI Openai-مانند مدل GPT-4O که در ChatGPT استفاده می شود-این است که با وجود این نام ، مدل های Openai به طور گسترده ای منبع باز نیستند. OpenAI اکنون دو مدل جدید زبان بزرگ با وزن آزاد را منتشر کرده است ، با این حال ، با این حال ، با نام GPT-OSS-20B و GPT-OSS-120B شناخته می شود و به توسعه دهندگان دسترسی مستقیم به استدلال با کارایی بالا را ارائه می دهد که می تواند همه چیز را از زیرساخت های ابری گرفته تا کارتهای گرافیکی RTX درجه مصرف کننده اجرا کند.
این مدل ها بر روی معماری ترکیبی از Exprts ساخته شده و با استفاده از GPU های H100 NVIDIA آموزش دیده اند ، در صورت فعال کردن این عملکرد ، این مدل ها برای کارهای پیچیده و استدلال چند مرحله ای مانند تولید کد ، تجزیه و تحلیل اسناد و استفاده از ابزار از جمله جستجوی وب طراحی شده اند.

این اعلامیه بخشی از فشار گسترده تر توسط Openai و Nvidia برای دستیابی پیشرفته AI برای توسعه دهندگان ، محققان و علاقه مندان است. این همچنین تأکید می کند که استراتژی مداوم NVIDIA برای ادغام محکم اکوسیستم سخت افزار و نرم افزار خود در منظره هوش مصنوعی منبع باز به سرعت در حال تحول است. این شرکت با OpenAI برای بهینه سازی مدل های جدید برای همه چیز از استقرار دیتاسنتر چندکله گرفته تا استنتاج محلی در رایانه های شخصی بالا کار کرده است.
در مقیاس ابر ، NVIDIA گزارش می دهد که سیستم Blackwell GB200 NVL72 آن می تواند عملکرد استنباط را به 1.5 میلیون نشانه در ثانیه با مدل GPT-OSS-20B سوق دهد ، که تعدادی از آنها با هدف سازمانهایی است که خدمات AI در مقیاس بزرگ را مستقر می کنند. دقت 4 بیتی NVFP4 Blackwell در اینجا استفاده نمی شود ، اما قالب MXFP4 که مدل ها است انجام دادن استفاده در حالی که هنوز از بارهای کاری تریلیون پارامتر در زمان واقعی پشتیبانی می کند ، به حفظ انرژی و حافظه کمک می کند.
شاید قابل توجه ترین بخش این نسخه برای استنباط محلی باشد. توسعه دهندگان هم اکنون می توانند همان مدل ها را در GEFORCE RTX و RTX PRO GPU ها اجرا کنند ، با عملکرد عملکردی تا 256 نشانه در ثانیه در Geforce RTX 5090.17-ن ویندوز زمینه ، درهای استدلال عمیق و در سطح اسناد را باز می کند ، چیزی که معمولاً برای سیستم های درجه سرور محفوظ است.

خوشبختانه ، تنظیمات نیز نسبت به گذشته ساده تر است. برنامه Ollama اکنون شامل پشتیبانی رسمی از مدل های GPT-OSS است که به کاربران امکان بارگیری ، گپ زدن و تینکر با آنها را در سیستم های خود می دهد. پیوست های پرونده ، سفارشی سازی زمینه و حتی پشتیبانی چند حالته همگی در آن ساخته شده اند – اگرچه عملکرد چند حالته با این مدل های جدید در دسترس نیست. برای توسعه دهندگان ، دسترسی CLI و SDK نیز وجود دارد ، به علاوه پشتیبانی از سایر چارچوب های دیگر مانند Llama.cpp و Microsoft AI Foundry Local.
این یک تغییر قابل توجه است: مدل های استدلال قدرتمند دیگر فقط چیزی نیستند که از طریق API به آن دسترسی پیدا کنید. با استفاده از سخت افزار مناسب و کمی تنظیم ، آنها اکنون می توانند به صورت محلی اجرا شوند و هنوز هم به اندازه کافی سریع هستند که مفید باشند. برای شروع کار با Ollama و این مدل ها را بر روی GPU 16 گیگابایتی یا More-Vram RTX خود امتحان کنید ، می توانید دستورالعمل های مربوط به وبلاگ رسمی NVIDIA را دنبال کنید. و می توانید GPT-OSS را در اینجا نیز در سکوی Nvidia امتحان کنید.