Nvidia تراشه هوش مصنوعی جدیدی را معرفی کرد

بازدید: 824 بازدید
Nvidia تراشه هوش مصنوعی جدیدی را معرفی کرد - اردک دیجیتال

Nvidia روز سه‌شنبه تراشه جدیدی را معرفی کرد که برای اجرای مدل‌های هوش مصنوعی طراحی شده است، زیرا به دنبال مقابله با رقبا در فضای سخت‌افزاری هوش مصنوعی از جمله AMD، گوگل و آمازون است.

در حال حاضر، بر اساس برخی برآوردها، انویدیا با بیش از 80 درصد سهم بازار بر بازار تراشه های هوش مصنوعی تسلط دارد. تخصص این شرکت واحدهای پردازش گرافیکی یا GPU است که به تراشه‌های ترجیحی برای مدل‌های بزرگ هوش مصنوعی تبدیل شده‌اند که زیربنای نرم‌افزار هوش مصنوعی مولد هستند، مانند Google’s Bard و OpenAI’s ChatGPT. اما تراشه‌های انویدیا کمبود دارند زیرا غول‌های فناوری، ارائه‌دهندگان ابر و استارت‌آپ‌ها برای ظرفیت GPU برای توسعه مدل‌های هوش مصنوعی خود رقابت می‌کنند.

تراشه جدید انویدیا، GH200، دارای همان GPU با بالاترین رده فعلی تراشه هوش مصنوعی این شرکت، H100 است. اما GH200 این پردازنده گرافیکی را با 141 گیگابایت حافظه پیشرفته و همچنین یک پردازنده مرکزی 72 هسته ای ARM جفت می کند.

جنسن هوانگ، مدیرعامل انویدیا در کنفرانسی در روز سه‌شنبه گفت: «ما این پردازنده را تقویت می‌کنیم. وی افزود: «این پردازنده برای گسترش مراکز داده دنیا طراحی شده است.»

هوانگ گفت تراشه جدید در سه ماهه دوم سال آینده از توزیع کنندگان انویدیا در دسترس خواهد بود و باید تا پایان سال برای نمونه گیری در دسترس باشد. نمایندگان انویدیا از ارائه قیمت خودداری کردند.

اغلب، فرآیند کار با مدل‌های هوش مصنوعی به حداقل دو بخش تقسیم می‌شود: آموزش و استنتاج.

ابتدا، یک مدل با استفاده از مقادیر زیادی داده آموزش داده می‌شود، فرآیندی که می‌تواند ماه‌ها طول بکشد و گاهی اوقات به هزاران GPU نیاز دارد، مانند تراشه‌های H100 و A100 انویدیا. سپس این مدل در نرم افزار برای پیش بینی یا تولید محتوا با استفاده از فرآیندی به نام استنتاج استفاده می شود. مانند آموزش، استنتاج از نظر محاسباتی گران است و هر بار که نرم افزار اجرا می شود، مانند زمانی که برای تولید متن یا تصویر کار می کند، به قدرت پردازش زیادی نیاز دارد. اما بر خلاف آموزش، استنتاج تقریباً به طور مداوم انجام می شود، در حالی که آموزش تنها زمانی مورد نیاز است که مدل نیاز به به روز رسانی داشته باشد.

هوانگ گفت: «می‌توانید تقریباً هر مدل زبان بزرگی را که می‌خواهید انتخاب کنید و آن را در آن قرار دهید و دیوانه‌وار استنباط می‌کند». “هزینه استنتاج مدل های زبان بزرگ به طور قابل توجهی کاهش می یابد.”

ایان باک، معاون انویدیا، روز سه‌شنبه در تماسی با تحلیلگران و خبرنگاران گفت: GH200 جدید انویدیا برای استنتاج طراحی شده است زیرا ظرفیت حافظه بیشتری دارد و به مدل‌های بزرگ‌تر هوش مصنوعی اجازه می‌دهد در یک سیستم واحد قرار بگیرند. H100 انویدیا دارای 80 گیگابایت حافظه در مقابل 141 گیگابایت در GH200 جدید است. انویدیا همچنین سیستمی را معرفی کرد که دو تراشه GH200 را در یک کامپیوتر برای مدل‌های بزرگتر ترکیب می‌کند.

باک می‌گوید: «داشتن حافظه بزرگ‌تر به مدل اجازه می‌دهد تا روی یک GPU واحد باقی بماند و نیازی به چندین سیستم یا چند پردازنده گرافیکی برای اجرا نداشته باشد.»

این اعلامیه در حالی منتشر می شود که رقیب اصلی پردازنده گرافیکی انویدیا، AMD، اخیراً تراشه مبتنی بر هوش مصنوعی خود، MI300X را معرفی کرده است که می تواند از 192 گیگابایت حافظه پشتیبانی کند و به دلیل ظرفیت استنباط هوش مصنوعی به بازار عرضه شده است. شرکت هایی از جمله گوگل و آمازون نیز در حال طراحی تراشه های هوش مصنوعی سفارشی خود برای استنباط هستند.

دسته‌بندی تکنولوژی هوش مصنوعی
اشتراک گذاری
نوشته های مرتبط

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

پیج اینستاگرام اردک را دنبال کنید
سبد خرید

No products in the cart.

Return To Shop
ورود به سایت