بلاگ خبری سیسوگ, هوش مصنوعی

تلاش شرکت‌های Nvidia ،Cadence و Ceva برای همگام بودن با هوش مصنوعی!

تلاش شرکت‌های Nvidia ،Cadence و Ceva برای همگام بودن با هوش مصنوعی!

شرکت‌های Nvidia ،Cadence و Ceva باید با تکنولوژی پردازش AI همگام شوند. هر یک از این شرکت‌ها سخت‌افزار جدیدی را با هدف پشتیبانی از ظرفیت های هوش مصنوعی مدرن عرضه کرده اند.

طبق گزارش اخیر Grand View Research هوش مصنوعی تا سال 2030 به میزان 37 درصد رشد خواهد کرد.

با ایجاد پیشرفت‌های چشمگیر در صنعت نرم‌افزار، صنعت سخت‌افزار نیز مجبور است که سرعت پیشرفت خود را بیش‌تر کند. در چند هفته اخیر، شاهد عرضه سخت‌افزارهای جدید هوش مصنوعی در مارکت و همچنین، عرضه محصولات جدید توسط شرکت‌های Nvidia، Cadence و Ceva بوده‌ایم.

شرکت انویدیا سوپرچیپ Grace Hopper AI را ارتقا داد

در ایونت SIGGRAPH شرکت انویدیا در سال 2023، این شرکت از یک سوپرچیپ جدید به نام Grace Hopper AI رونمایی کرد که این سوپرچیپ با اولین تراشه HBM3e جهان سازگار است.

Logistical overview of the GH200 Grace Hopper AI Superchip

بررسی اجمالی لجستیکی سوپرچیپ GH200 Grace Hopper AI

چیپ جدید GH200 Grace Hopper، برای workloadهای هوش مصنوعی، از جمله مدل‌های زبان بزرگ (LLM)، سیستم‌های ریکامندر و دیتابیس‌های برداری ساخته شده است. به این منظور، این پلتفرم معماری جدیدی با کانفیگ dual معرفی می‌کند که دارای ظرفیت حافظه 3.5 برابر بیش‌تر و پهنای باند 3 برابر بیش‌تر از مدل فعلی است.

بخشی از این افزایش پهنای باند حافظه به دلیل تکنولوژی NVLink interconnect شرکت انویدیا است که منجر به ایجاد 1.2 ترابایت حافظه سریع در کانفیگ dual می‌شود.

این سوپرچیپ، مبتنی بر معماری Grace Hopper شرکت انویدیا است و از یک سرور Arm Neoverse که  ۱۴۴ هسته‌ای است، ساخته شده است. همچنین، این سوپرچیپ دارای حافظه 282 گیگابایت است و از آخرین تکنولوژی حافظه HBM3e پشتیبانی می‌کند.

حافظه HBM3e حدود 50 درصد سریع‌تر از HBM3 مدل فعلی است و باعث می‌شود که این چیپ بتواند مدل‌هایی تا 3.5 برابر بزرگ‌تر هم اجرا کند. در حالی که است که هنوز 8 پتافلاپ از عملکرد AI این پردازنده قابل استفاده است.

شرکت Cadence پردازنده‌های Edge نسل هشتم را عرضه می‌کند

شرکت Cadence اخیراً اعلام کرده است که نسل هشتم پردازنده‌های Xtensa LX را به سخت‌افزارهای پردازشی AI-specialized خود اضافه کرده است.

Block diagram of the Xtensa LX8 processor platform

بلوک دیاگرام پلتفرم پردازنده Xtensa LX8

طبق گفته‌های شرکت Cadence: پلتفرم جدید پردازنده LX8، پایه و اساس سری پردازنده‌های Xtensa LX است و می‌تواند قدرت و عملکرد بهتری برای طراحی‌های AI SoC فراهم کند. راه‌حل جدید، ایجاد یک پردازنده RISC با مقدار ۳۲ بیت است که بر اساس معماری پایپ لاین  5/7-stage ساخته شده است.

برخی از مهم‌ترین ویژگی‌های این چیپ عبارت‌اند از:

  • داشتن یک کنترلر دسترسی مستقیم به حافظه (DMA).
  • وجود یک معماری گسترده که دستورالعمل‌های جدید و واحدهای اجرای سخت‌افزار را امکان‌پذیر می‌کند.

برای برآورده‌کردن نیازهای edge و صنعت وسایل نقلیه موتوری، LX8 ویژگی‌هایی از جمله:

  • 50 درصد بهبود در حافظه کش L2.
  • Branch prediction بهینه‌سازی‌شده.
  • انتقال سه‌بعدی دسترسی مستقیم به حافظه (DMA) ارتقا یافته در پروژه های DSP

را ارائه می‌کند.

در حال حاضر، این پردازنده برای مشتریانی که دارای دسترسی early-access هستند، ارسال می‌شود و انتظار می‌رود که این محصول در اواخر سه ماه آخر سال 2023 در دسترس قرار گیرد.

شرکت Ceva واحدهای پردازش مبتنی بر شبکه عصبی را برای هوش مصنوعی گسترش می‌دهد

اخیراً شرکت Ceva از سری جدید خود به نام NeuPro-M NPU رونمایی کرده است که نشان می‌دهد این شرکت برای دوبرابر کردن سخت‌افزار generative AI خود برنامه‌هایی دارد.

یکی از پیشرفت‌های بزرگ در NeuPro-M به دلیل استفاده آن از پردازش heterogeneous است. این روش، پردازش موازی ترکیبی را هم در موتورهای داخلی و هم بین آن‌ها اجرا می‌کند. این پردازش موازی به میزان زیادی توانایی پردازش کلی سیستم را افزایش می‌دهد.

A block diagram of the CEVA NeuPro-M Core

بلوک دیاگرام CEVA NeuPro-M Core

از ویژگی‌های مهم دیگر NeuPro-M NPU می‌توان به این موارد اشاره کرد:

  • مکانیسم‌های مختلف کاهش پهنای باند حافظه orthogonal
  • معماری غیرمتمرکز برای کنترلر NPU management

این ویژگی‌ها از تمام پردازنده‌های مشترک خود استفاده می‌کنند و درعین‌حال، مشکلات مربوط به عملکرد محدود پهنای باند، تراکم داده یا واحد پردازش را از بین می‌برند. همچنین، آن‌ها نیاز به حافظه خارجی SoC را کاهش داده و باعث بهبود عملکرد می‌شوند.

شرکت Ceva بهره‌وری انرژی NeuPro-M را با ارائه 350 Tera Operas در هر وات بر ثانیه (TOPS/Watt) افزایش می‌دهد. این سیستم می‌تواند در هر هسته از 4 TOPS تا 256 TOPS متغیر باشد. همچنین، می‌تواند با استفاده از تنظیمات چندهسته‌ای به بالای 1200 TOPS برسد.

پشتیبانی از دستگاه‌های هوش مصنوعی Incoming 6.5B Edge AI

پژوهش ABI Research پیش‌بینی می‌کند که محموله‌های edge AI از سال 2023 تا سال 2028 مقدار CAGR 22.4 درصد را تجربه خواهند کرد. به‌عبارت‌دیگر، تا سال 2028، سالانه 6.5 میلیارد واحد edge AI ارسال می‌شود. برخی از بزرگ‌ترین سیستم‌های محاسباتی صنعت، از جمله Nvidia، Cadence و Ceva با ارتقای عملکرد و همچنین، بهره‌وری انرژی پلتفرم‌های پردازش leading AI، روبه‌رو هستند.

منبع: All about circuits

انتشار مطالب با ذکر نام و آدرس وب سایت سیسوگ، بلامانع است.

شما نیز میتوانید یکی از نویسندگان سیسوگ باشید.   همکاری با سیسوگ

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *