
Nvidia روز سهشنبه تراشه جدیدی را معرفی کرد که برای اجرای مدلهای هوش مصنوعی طراحی شده است، زیرا به دنبال مقابله با رقبا در فضای سختافزاری هوش مصنوعی از جمله AMD، گوگل و آمازون است.
در حال حاضر، بر اساس برخی برآوردها، انویدیا با بیش از 80 درصد سهم بازار بر بازار تراشه های هوش مصنوعی تسلط دارد. تخصص این شرکت واحدهای پردازش گرافیکی یا GPU است که به تراشههای ترجیحی برای مدلهای بزرگ هوش مصنوعی تبدیل شدهاند که زیربنای نرمافزار هوش مصنوعی مولد هستند، مانند Google’s Bard و OpenAI’s ChatGPT. اما تراشههای انویدیا کمبود دارند زیرا غولهای فناوری، ارائهدهندگان ابر و استارتآپها برای ظرفیت GPU برای توسعه مدلهای هوش مصنوعی خود رقابت میکنند.
تراشه جدید انویدیا، GH200، دارای همان GPU با بالاترین رده فعلی تراشه هوش مصنوعی این شرکت، H100 است. اما GH200 این پردازنده گرافیکی را با 141 گیگابایت حافظه پیشرفته و همچنین یک پردازنده مرکزی 72 هسته ای ARM جفت می کند.
جنسن هوانگ، مدیرعامل انویدیا در کنفرانسی در روز سهشنبه گفت: «ما این پردازنده را تقویت میکنیم. وی افزود: «این پردازنده برای گسترش مراکز داده دنیا طراحی شده است.»
هوانگ گفت تراشه جدید در سه ماهه دوم سال آینده از توزیع کنندگان انویدیا در دسترس خواهد بود و باید تا پایان سال برای نمونه گیری در دسترس باشد. نمایندگان انویدیا از ارائه قیمت خودداری کردند.
اغلب، فرآیند کار با مدلهای هوش مصنوعی به حداقل دو بخش تقسیم میشود: آموزش و استنتاج.
ابتدا، یک مدل با استفاده از مقادیر زیادی داده آموزش داده میشود، فرآیندی که میتواند ماهها طول بکشد و گاهی اوقات به هزاران GPU نیاز دارد، مانند تراشههای H100 و A100 انویدیا. سپس این مدل در نرم افزار برای پیش بینی یا تولید محتوا با استفاده از فرآیندی به نام استنتاج استفاده می شود. مانند آموزش، استنتاج از نظر محاسباتی گران است و هر بار که نرم افزار اجرا می شود، مانند زمانی که برای تولید متن یا تصویر کار می کند، به قدرت پردازش زیادی نیاز دارد. اما بر خلاف آموزش، استنتاج تقریباً به طور مداوم انجام می شود، در حالی که آموزش تنها زمانی مورد نیاز است که مدل نیاز به به روز رسانی داشته باشد.
هوانگ گفت: «میتوانید تقریباً هر مدل زبان بزرگی را که میخواهید انتخاب کنید و آن را در آن قرار دهید و دیوانهوار استنباط میکند». “هزینه استنتاج مدل های زبان بزرگ به طور قابل توجهی کاهش می یابد.”
ایان باک، معاون انویدیا، روز سهشنبه در تماسی با تحلیلگران و خبرنگاران گفت: GH200 جدید انویدیا برای استنتاج طراحی شده است زیرا ظرفیت حافظه بیشتری دارد و به مدلهای بزرگتر هوش مصنوعی اجازه میدهد در یک سیستم واحد قرار بگیرند. H100 انویدیا دارای 80 گیگابایت حافظه در مقابل 141 گیگابایت در GH200 جدید است. انویدیا همچنین سیستمی را معرفی کرد که دو تراشه GH200 را در یک کامپیوتر برای مدلهای بزرگتر ترکیب میکند.
باک میگوید: «داشتن حافظه بزرگتر به مدل اجازه میدهد تا روی یک GPU واحد باقی بماند و نیازی به چندین سیستم یا چند پردازنده گرافیکی برای اجرا نداشته باشد.»
این اعلامیه در حالی منتشر می شود که رقیب اصلی پردازنده گرافیکی انویدیا، AMD، اخیراً تراشه مبتنی بر هوش مصنوعی خود، MI300X را معرفی کرده است که می تواند از 192 گیگابایت حافظه پشتیبانی کند و به دلیل ظرفیت استنباط هوش مصنوعی به بازار عرضه شده است. شرکت هایی از جمله گوگل و آمازون نیز در حال طراحی تراشه های هوش مصنوعی سفارشی خود برای استنباط هستند.