الکتروهایو

هوش مصنوعی / الکترونیک / برنامه‌نویسی

4 پاسخ

    1. اولا با تشکر از حسن توجه جنابعلی به مطالب سایت. دوما ما وظیفه خودمون می دونیم.
      تیم پشتیبانی الکتروهایو

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

چرا GPUها برای هوش مصنوعی عالی هستند؟

چرا GPUها برای هوش مصنوعی عالی هستند؟
در این مقاله می‌خوانید:

زمان تخمینی مطالعه: 8 دقیقه

ویژگی‌های موجود در تراشه‌ها، سیستم‌ها و نرم‌افزار، GPUهای انویدیا را برای یادگیری ماشینی با عملکرد و کارایی که میلیون‌ها نفر از آن لذت می‌برند، ایده‌آل می‌سازد. GPUها عناصر کمیاب در هوش مصنوعی نامیده می‌شوند، زیرا پایه‌ای برای عصر هوش مصنوعی مولد امروزی هستند. سه دلیل فنی، و موضوعات دیگر ورای این ادعا هستند و آن را توضیح می‌دهند. هر دلیل دارای جنبه‌های متعددی است که ارزش بررسی را دارد، اما در سطحی بالا می‌توان گفت که:

  • پردازنده‌های گرافیکی از پردازش موازی استفاده می‌کنند.
  • سیستم‌های GPU تا مقیاس ابررایانه‌‌ها قابل ارتقاع هستند.
  • پشته نرم افزار GPUها برای هوش مصنوعی گسترده و عمیق است.

در نتیجه می‌توان گفت که GPUها محاسبات فنی را سریعتر و با بهره وری انرژی بیشتر از CPUها انجام می‌دهند. این بدان معناست که آنها عملکرد پیشرو را برای آموزش و استنتاج هوش مصنوعی و همچنین دستاوردهایی در طیف گسترده‌ای از برنامه‌های کاربردی که از محاسبات تسریع شده استفاده می‌کنند، ارائه می‌دهند.

گروه هوش مصنوعی انسان محور استنفورد در گزارش اخیر خود در مورد هوش مصنوعی، چنین بیان می‌کند که: عملکرد GPUها “تقریبا 7000 برابر” از سال 2003 افزایش یافته است و قیمت هر عملکرد “5600 برابر بیشتر” است.

نمایش عملکرد GPU ها از سال 2003 تا امروز

این گزارش همچنین به تحلیل Epoch، یک گروه تحقیقاتی مستقل که پیشرفت‌های هوش مصنوعی را اندازه‌گیری و پیش‌بینی می‌کند، استناد کرده است. به گفته Epoch “پردازنده‌های گرافیکی پلتفرم محاسباتی غالب برای تسریع بارهای کاری یادگیری ماشینی هستند و اکثر (اگر نه همه) از بزرگترین مدل‌ها در پنج سال گذشته بر روی پردازنده‌های گرافیکی آموزش دیده‌اند.”

یک مطالعه در سال 2020 که فناوری هوش مصنوعی را برای دولت ایالات متحده ارزیابی می‌کرد، به نتایج مشابهی دست یافته است.در این بیانیه آمده است: «ما انتظار داریم تراشه‌های هوش مصنوعی یک تا سه مرتبه مقرون‌ به‌ صرفه‌تر از CPU‌های پیشرو در محاسبه هزینه‌های تولید و عملیاتی باشند». بیل دالی، دانشمند ارشد این شرکت در سخنرانی اصلی در Hot Chips، گردهمایی سالانه مهندسین نیمه هادی‌ها و سیستم‌ها، گفت: پردازنده‌های گرافیکی NVIDIA در ده سال گذشته 1000 برابر قدرت استنتاج هوش مصنوعی را افزایش داده‌اند.

پدیده‌ای به نام ChatGPT

سیستم ChatGPT یک مثال قدرتمند از است که چگونه GPUها برای هوش مصنوعی ابزاری عالی هستند. مدل زبان بزرگ (LLM) که بر روی هزاران پردازنده گرافیکی NVIDIA آموزش دیده و اجرا می‌شود، سرویس‌های هوش مصنوعی مولد مورد استفاده بیش از 100 میلیون نفر را اجرا می‌کند. از زمان عرضه در سال 2018، MLPerf، معیار استاندارد صنعتی برای هوش مصنوعی، اعدادی را ارائه کرده است که عملکرد پیشرو پردازنده‌های گرافیکی NVIDIA را هم در آموزش و هم در استنباط هوش مصنوعی نشان می‌دهد.

به عنوان مثال، NVIDIA Grace Hopper Superchips آخرین دور آزمایش‌های استنتاج را انجام داد. NVIDIA TensorRT-LLM، نرم افزار استنتاجی که پس از آن آزمایش منتشر شد، تا 8 برابر افزایش عملکرد و بیش از 5 برابر کاهش مصرف انرژی و هزینه کل مالکیت را ارائه می‌دهد. در واقع، پردازنده‌های گرافیکی NVIDIA از زمان انتشار این معیار در سال 2019، برنده تمام مراحل آموزش MLPerf و تست‌های استنتاج شده‌اند. در ماه فوریه سال 2023، پردازنده‌های گرافیکی NVIDIA نتایج برجسته‌ای را برای استنباط ارائه کردند و هزاران استنتاج در ثانیه را در مورد پر تقاضاترین مدل‌ها در معیار STAC-ML Markets ارائه کردند، که یک معیار کلیدی عملکرد فناوری برای صنعت خدمات مالی است.

یک تیم مهندسی نرم‌افزار RedHat به طور خلاصه در وبلاگ خود اینگونه بیان می‌کنند که: «GPUها پایه و اساس هوش مصنوعی شده‌اند».

هسته‌های Tensor تیون شده

با گذشت زمان، مهندسان NVIDIA هسته‌های GPU را با نیازهای در حال تکامل مدل‌های هوش مصنوعی تنظیم کرده‌اند. جدیدترین پردازنده‌های گرافیکی شامل هسته‌های Tensor هستند که 60 برابر قدرتمندتر از طراحی‌های نسل اول برای پردازش شبکه‌های عصبی ریاضی ماتریسی هستند. علاوه بر این، پردازنده‌های گرافیکی NVIDIA Hopper Tensor Core دارای یک موتور ترانسفورماتور هستند که می‌تواند به طور خودکار دقت مطلوب مورد نیاز برای پردازش مدل‌های ترانسفورماتور را تنظیم کند، کلاس شبکه‌های عصبی که هوش مصنوعی مولد را ایجاد کردند.

در طول مسیر، هر نسل GPU حافظه بیشتری را جمع‌آوری کرده و تکنیک‌های بهینه‌سازی شده‌ای را برای ذخیره کل مدل هوش مصنوعی در یک واحد پردازش گرافیکی یا مجموعه‌ای از پردازنده‌های گرافیکی دارد.

رشد مدل‌ها، گسترش سیستم‌ها

پیچیدگی مدل‌های هوش مصنوعی 10 برابر در هر سال افزایش یافته است. پیشرفته‌ترین مدل LLM امروزی که GPT4 است، بیش از یک تریلیون پارامتر را در خود جای داده است که معیاری از چگالی ریاضی آن است. این در مقایسه با کمتر از 100 میلیون پارامتر برای یک LLM محبوب در سال 2018 است.

کارائی چیپ‌ها در طول زمان

سیستم‌های GPU با انجام این چالش همگام شده‌اند. آن‌ها به لطف اتصالات سریع NVLink و شبکه‌های کوانتومی اینفینی‌باند NVIDIA به ابررایانه‌ها می‌رسند. به عنوان مثال، DGX GH200، یک ابر رایانه هوش مصنوعی با حافظه بزرگ، حداکثر 256 سوپرتراشه NVIDIA GH200 Grace Hopper را در یک واحد پردازش گرافیکی در اندازه مرکز داده با 144 ترابایت حافظه مشترک ترکیب می‌کند. هر سوپرتراشه GH200 یک سرور واحد با 72 هسته CPU Arm Neoverse و چهار پتافلاپ عملکرد هوش مصنوعی است. پیکربندی جدید سیستم‌های Grace Hopper چهار طرفه، 288 هسته بازو و 16 پتافلاپ عملکرد هوش مصنوعی با حداکثر 2.3 ترابایت حافظه پرسرعت را در یک گره محاسباتی واحد قرار می‌دهد. و پردازنده‌های گرافیکی NVIDIA H200 Tensor Core که در ماه نوامبر معرفی شدند تا 288 گیگابایت از آخرین فناوری حافظه HBM3e را در خود جای داده‌اند.

نرم افزار پیشروی این قلمرو

اقیانوس در حال گسترش نرم‌افزار GPUها از سال 2007 تکامل یافته است تا همه جنبه‌های هوش مصنوعی، از ویژگی‌های فناوری عمیق گرفته تا برنامه‌های کاربردی سطح بالا را فعال کند. پلتفرم NVIDIA AI شامل صدها کتابخانه نرم افزاری و برنامه است. زبان برنامه‌نویسی CUDA و کتابخانه cuDNN-X برای یادگیری عمیق، پایه‌ای را فراهم می‌کنند که توسعه‌دهندگان نرم‌افزاری مانند NVIDIA NeMo را ایجاد کرده‌اند، چارچوبی که به کاربران اجازه می‌دهد تا مدل‌های هوش مصنوعی مولدی خود را بسازند، سفارشی کنند و استنتاج کنند.

بسیاری از این عناصر به‌عنوان نرم‌افزار متن‌باز، که جزء اصلی توسعه‌دهندگان نرم‌افزار هستند، در دسترس هستند. بیش از صد مورد از آنها در پلتفرم NVIDIA AI Enterprise برای شرکت‌هایی که به امنیت و پشتیبانی کامل نیاز دارند، بسته بندی شده اند. به طور فزاینده‌ای، آنها همچنین از ارائه دهندگان خدمات ابری اصلی به عنوان API و خدمات در NVIDIA DGX Cloud در دسترس هستند. SteerLM، یکی از آخرین به‌روزرسانی‌های نرم‌افزار هوش مصنوعی برای پردازنده‌های گرافیکی NVIDIA، به کاربران اجازه می‌دهد مدل‌ها را در حین استنتاج تنظیم کنند.

شروع داستان

داستان موفقیت این تکنولوژی به مقاله‌ای در سال 2008 از اندرو نگ(Andrew Ng)، پیشگام هوش مصنوعی، که در آن زمان محقق دانشگاه استنفورد بود، برمی‌گردد. تیم سه نفره او با استفاده از دو پردازنده گرافیکی NVIDIA GeForce GTX 280 به سرعت 70 برابری نسبت به پردازنده‌هایی که یک مدل هوش مصنوعی با 100 میلیون پارامتر را پردازش می‌کنند، دست یافتند و کارهایی را که قبلاً چندین هفته طول می‌کشید در یک روز به پایان رساندند. آنها گزارش دادند: «پردازنده‌های گرافیکی مدرن بسیار از قابلیت‌های محاسباتی پردازنده‌های چند هسته‌ای پیشی می‌گیرند و پتانسیل ایجاد انقلابی در کاربرد روش‌های یادگیری عمیق بدون نظارت را دارند.

گزارش تیم Andrew Ng از سرعت 70 برابری GPUها

در سخنرانی TED در سال 2015 در کنفرانس GPU اندویدیا آقای Ng توضیح داد که چگونه به استفاده از پردازنده‌های گرافیکی بیشتر برای ارتقای کار خود ادامه داد و مدل‌های بزرگ‌تری را در Google Brain و Baidu اجرا کرد. بعدها، او به تأسیس Coursera، یک پلتفرم آموزش آنلاین کمک کرد که در آن به صدها هزار دانش‌آموز هوش مصنوعی آموزش داد. آقای Ng، جف هینتون را به عنوان یکی از پدرخوانده‌های هوش مصنوعی مدرن قرار می‌دهد. او در سخنرانی GTC گفت: “به یاد دارم که به دیدار جف هینتون رفتم و گفت CUDA را بررسی کنید، فکر می‌کنم می‌تواند به ساخت شبکه‌های عصبی بزرگتر کمک کند.”

لوگو الکتروهایو

الکتروهایو در خدمت مخاطبان عزیز می‌باشد. ما در تیم الکتروهایو در تلاش برای تهیه مقالات و مطالب به روز هستیم. لطفا برای مطالب و مقالات بیشتر با ما همراه باشید.

مطالب مرتبط:

نقص نیورالینک Neuralink در اولین کارآزمایی انسانی!! آیا ایلان ماسک شکست خورده است؟ - سایت الکتروهایو

نقص نیورالینک Neuralink در اولین کارآزمایی انسانی!! آیا ایلان ماسک شکست خورده است؟

آخرین اخبار در مورد نرورالینک که شرکت فناوری عصبی ایلان ماسک(Neuralink) است نشان می‌دهد که اولین آزمایش انسانی کاشت یک تراشه مغزی بر روی یک مرد 29 ساله به نام Noland Arbaugh انجام داد. اما در این فرآیند یک نقص

ادامه مطلب »
محاسبات GPU چیست؟ - الکتروهایو

محاسبات GPU چیست؟

هدف اصلی یک واحد پردازش گرافیکی (GPU) تسریع در ارائه و پردازش گرافیک است. با این حال، آنچه که GPU ها را در پردازش تصاویر بصری عالی می‌کند، این سخت افزار را در انجام وظایف خاص غیر گرافیکی (مانند آموزش

ادامه مطلب »
ارائه تکنیکی جدید توسط ریاضیدان‌ها برای افزایش سرعت اینترنت اشیا بوسیله روش تقسیم ترافیک بهینه - در الکتروهایو

ارائه تکنیکی جدید توسط ریاضیدان‌ها برای افزایش سرعت اینترنت اشیا بوسیله روش تقسیم ترافیک بهینه

ریاضیدانان دانشگاه RUDN یک الگوریتم مسیریابی جدید برای بهینه کردن و افزایش سرعت اینترنت اشیا ایجاد کرده‌اند. این الگوریتم به طور بهینه ترافیک را تقسیم می‌کند که سرعت و قابلیت اطمینان شبکه را بهبود می‌بخشد. نتایج در Mathematics منتشر شد.

ادامه مطلب »
کامل‌ترین راهنما برای انتخاب بهترین برد آردوینو برای انواع پروژه‌ها!!! در الکتروهایو

کامل‌ترین راهنما برای انتخاب بهترین برد آردوینو برای انواع پروژه‌ها!!!

بسیاری از مبتدیان دنیای الکترونیک، فعالیت خود را در این حوزه با کار بر روی برد Arduino شروع کردند. به هر حال، برد آردوینو یکی از محبوب‌ترین و مستندترین میکروکنترلرهای موجود در بازار است. اما وقتی وارد این اکوسیستم می‌شویم

ادامه مطلب »
نحوه نصب NVIDIA CUDA toolkit دراوبونتو در الکتروهایو

نحوه نصب NVIDIA CUDA toolkit دراوبونتو

پلت فرم NVIDIA CUDA Toolkit یک بستر نرم افزاری است که به توسعه دهندگان اجازه می‌دهد تا از قدرت محاسباتی پردازش NVIDIA و برنامه‌های کاربردی شتاب دهنده GPU بهره ببرند. CUDA همچنین یک مدل برنامه نویسی و یک API است

ادامه مطلب »
داده‌های اسمی Nominal Data - الکتروهایو

داده‌های اسمی Nominal Data چیست؟

داده‌های اسمی(Nominal Data) یکی از اساسی‌ترین انواع داده‌ها در تجزیه و تحلیل داده‌ها است. شناسایی …

حاشیه‌نویسی متن در هوش مصنوعی - سایت الکتروهایو

حاشیه‌نویسی متن در هوش مصنوعی

حاشیه‌نویسی داده به الگوریتم‌های یادگیری ماشین اجازه می‌دهد تا اطلاعات را درک و تفسیر کنند. …

هوش مصنوعی در باستان شناسی و کاربردهای آن - سایت الکتروهایو

هوش مصنوعی در باستان شناسی چه کاربردهای می‌تواند داشته باشد؟

مکان‌های باستان‌شناسی ممکن است ثابت باشند، اما فرهنگ‌هایی که آنها را تولید کرده‌اند، پویا و …

با الگوریتم تشخیص اشیاء FCOS آشنا شوید - سایت الکتروهایو

با الگوریتم تشخیص اشیاء FCOS آشنا شوید: تشخیص اشیاء تک مرحله‌ای کاملاً کانولوشنال

تشخیص اشیاء یک کار مهم در بینایی کامپیوتر است که با رسم کادرهای محدود کننده …

تصویربرداری چند طیفی، دیدی جدید فراسوی نور مرئی - سایت الکتروهایو

تصویربرداری چند طیفی، دیدی جدید فراسوی نور مرئی

تصویربرداری چند طیفی تکنیکی است که نور را در طیف وسیعی از باندهای طیفی، فراتر …