صنعت در دوران پسا-مور

میراث قانون مور؛‌ چرا تکنولوژی دیگر ارزان نمی‌شود؟

چهارشنبه 22 بهمن 1404 - 13:30مطالعه 14 دقیقه
غول‌های دنیای تکنولوژی از AMD تا انویدیا به این نتیجه رسیده‌اند که با مرگ قانون مور، دوران ارزان و سریع شدن تراشه‌ها به پایان رسیده است.
تبلیغات

در سال ۱۹۵۶، جهان شاهد رونمایی از یک شگفتی مهندسی بود؛ ابرکامپیوتر IBM 305 RAMAC. این دستگاه نقطه‌ی عطفی در تاریخ تکنولوژی محسوب می‌شد، زیرا نخستین کامپیوتری بود که از هارد دیسک بهره می‌برد. اما این هارد دیسک هیچ شباهتی به حافظه‌های مینیاتوری امروز نداشت؛ این غول آهنی بیش از یک تُن وزن داشت و جابه‌جایی آن نیازمند هواپیماهای باری و لیفتراک‌های صنعتی بود. با تمام این عظمت و پیچیدگی، این دستگاه تنها می‌توانست ۳٫۷۵ مگابایت اطلاعات را در خود ذخیره کند؛ تقریباً معادل حجم یک عکس با کیفیت متوسط در گوشی‌های امروزی.

شصت سال جلوتر بیایید. امروز یک گوشی هوشمند معمولی در جیب شما، هزاران برابر آن غول یک تنی حافظه دارد و میلیون‌ها برابر با سرعت بیشتری پردازش می‌کند، در حالی‌که وزن آن به کمتر از ۲۰۰ گرم می‌رسد. چه نیرویی باعث شد ماشین‌هایی که زمانی سوله‌های عظیم را اشغال می‌کردند، به ابزارهایی بسیار کوچک و قدرتمند تبدیل شوند؟ پاسخ در یک مشاهده‌ی انقلابی نهفته است: قانون مور؛ پیش‌بینی‌ای که برای نیم‌قرن، قطب‌نمای بی‌چون‌وچرای صنعت سیلیکون بود.

اما این دوران طلایی همیشگی نبود. در سال ۲۰۱۹، ویکتور پنگ،‌ مدیر سابق AMD، تابویی پنجاه‌ساله را شکست و اعلام کرد که قانون مور به معنای کلاسیک آن دیگر معنایی ندارد و مدتی بعد، جنسن هوانگ، مدیرعامل انویدیا، با تاکید بر همین موضوع میخ آخر را بر تابوت آن کوبید. اگر موتور محرک پیشرفت متوقف شده است، پس چه چیزی جایگزین آن خواهد شد؟ اگر دیگر نمی‌توانیم ترانزیستورها را کوچک‌تر کنیم، چگونه ماشین‌های فردا را قدرتمندتر بسازیم؟

ما اکنون در آستانه‌ی عصری ایستاده‌ایم که پاسخ به این سوالات، سرنوشت آینده را تعیین می‌کند: دوران پسا-مور.

صعود و سقوط یک پیشگویی طلایی

در سال ۱۹۶۵، گوردون مور، هم‌بنیان‌گذار اینتل، الگویی خیره‌کننده را شناسایی کرد؛ مهندسان موفق شده بودند هر سال ابعاد ترانزیستورها را کوچک‌تر کنند. او پیش‌بینی کرد که تعداد ترانزیستورهایی که می‌توان روی یک چیپ سیلیکونی جای داد، هر ۱۸ ماه تا دو سال دو برابر خواهد شد.

برای چندین دهه، این پیش‌بینی صادق بود و البته یک متحد قدرتمند دیگر نیز در کنارش داشت؛ «قانون دنارد» (Dennard Scaling). رابرت دنارد در سال ۱۹۷۴ کشف کرد که وقتی ابعاد ترانزیستورها را کوچک می‌کنیم، ولتاژ مورد نیاز آن‌ها نیز کاهش می‌یابد. ترانزیستورهای کوچک‌تر نه‌تنها فضای کمتری می‌گرفتند، بلکه انرژی کمتری مصرف می‌کردند و سریع‌تر خاموش و روشن می‌شدند. مهندسان می‌توانستند بدون نگرانی از داغ شدن تراشه، تعداد ترانزیستورها و سرعت کلاک را همزمان بالا ببرند. همه‌چیز عالی پیش می‌رفت؛ تراشه‌ها کوچک‌تر، سریع‌تر و کم‌مصرف‌تر می‌شدند. مهندسان معجزه می‌کردند و جهان ثمره‌ی آن را برداشت می‌کرد.

برخورد با دیوار سخت فیزیک

سرانجام، پس از ۵۰ سال موفقیت بی‌وقفه، قانون مور اکنون نفس‌های آخرش را می‌کشد و ریشه‌ی این بحران، در قلبِ خودِ تکنولوژی، یعنی ترانزیستور نهفته است.

ترانزیستور MOSFET که پرتولیدترین قطعه‌ی ساخته‌ی دست بشر محسوب می‌شود، اکنون به مرزهای نهاییِ ابعاد فیزیکی رسیده است. اصول کار ترانزیستور ساده است؛ این قطعه مانند یک شیر فلکه‌ی اتمی، وظیفه‌ی کنترل جریان (صفر و یک) را برعهده دارد. با مهندسی دقیقِ اتم‌های سیلیکون و افزودن ناخالصی‌هایی مثل فسفر و بور، سدی به نام «لایه تخلیه» ایجاد می‌شود که جریان را قطع می‌کند (حالت صفر) و تنها با اعمال ولتاژ باز می‌شود (یک). برای چندین دهه، این سازوکار بی‌نقص بود و کوچک‌تر کردن ترانزیستورها همواره به معنای چیپ‌هایی سریع‌تر و متراکم‌تر بود.

اما امروز، ترانزیستورهای مدرن به پهنای ۲ نانومتر رسیده‌اند؛ یعنی ضخامتی برابر با تنها ۱۰ اتم! در این مقیاس، قوانین فیزیک کلاسیک در هم می‌شکنند و پدیده‌ای به نام «تونل‌زنی کوانتومی» وارد صحنه می‌شود. الکترون‌ها که رفتاری موج‌گونه دارند، دیگر پشت سدِ نازک‌شده‌ی ترانزیستور منتظر نمی‌مانند، بلکه با حفر تونلی نامرئی، به آن سو نشت می‌کنند. نتیجه اینکه ترانزیستوری که باید «خاموش» باشد، خودسرانه جریان را عبور می‌دهد و چیپ را به کوره‌ای داغ تبدیل می‌کند. بدین ترتیب، آن معادله‌ی طلایی و قدیمی که می‌گفت «کوچک‌تر کردن ترانزیستور مساوی است با سرعت بیشتر و هزینه‌ی کمتر» دیگر اعتبار ندارد.

علاوه‌بر این نشت کوانتومی، خودِ ساختار ترانزیستورها هم به مرزهای فیزیکی ماده نزدیک شده‌اند. هنگامی که ضخامت لایه‌های حیاتی ترانزیستور به چند اتم کاهش می‌یابد، فرآیند کوچک‌سازی دیگر معنای هندسی خود را از دست می‌دهد؛ چرا که ماده را نمی‌توان به کمتر از ابعاد اتمی تقسیم کرد. در این نقطه، حتی در غیاب تونل‌زنی یا سایر اثرهای کوانتومی، ادامه‌ی کوچک‌سازی ترانزیستور‌ها و مقیاس‌پذیری کلاسیک عملاً ناممکن می‌شود.

دامنه‌ی کوچک‌سازی ترانزیستورها به مقیاس اتمی نزدیک شده و کوچک‌تر از یک اتم معنا ندارد

هم‌زمان، پدیده‌ی مخرب دیگری به نام «اثر کانال کوتاه (Short Channel Effect) کنترل گیت را مختل می‌کند. در این حالت، فاصله‌ی ورودی و خروجیِ ترانزیستور آنقدر کم می‌شود که گیت دیگر نمی‌تواند تسلط کامل داشته باشد؛ درست مانند سدی که دیوارهایش آنقدر به هم نزدیک شده‌اند که فشار آب بر مقاومت دریچه غلبه می‌کند و جریان از زیر و کناره‌ها نشت می‌کند.

نتیجه‌ی مستقیم این فشردگی و نشت مداوم، ایجاد «چگالی حرارتی» وحشتناک است؛ زیرا این الکترون‌های نشتی حتی در زمان بیکاری دستگاه، انرژی مصرف کرده و دمای نقاطی از تراشه را به حدی بالا می‌برند که عملاً هیچ خنک‌کننده‌ای حریف آن نمی‌شود.

از سوری دیگر، فناوری «لیتوگرافی» یا همان چاپ نوری مدارها، اکنون با چالشی شبیه به کشیدن مینیاتور با قلم‌موی نقاشی ساختمان روبه‌روست. طول موج نور که نقش قلم‌موی ما را دارد، از خطوطی که باید رسم کند ضخیم‌تر است. این وضعیت، حتی پیشرفته‌ترین لیزرهای فرابنفش (EUV) را هم به زانو درآورده و برای دور زدن این محدودیت، هزینه‌ی ساخت هر دستگاه به صدها میلیون دلار رسیده است.

اما آیا این چالش‌ها به معنای پایان قطعی قانون مور خواهد بود؟ ویکتور پنگ، مدیر سابق AMD در سال ۲۰۱۹ اعلام کرد که «قانون مور به معنای کلاسیک آن مرده است.» از نگاه او، قانون مور هرگز تنها یک پیش‌بینی فنی درباره‌ی تعداد ترانزیستورها نبود، بلکه یک تضمین اقتصادی بزرگ محسوب می‌شد؛ وعده‌ای که می‌گفت اگر صبر کنید، تکنولوژی به‌طور خودکار ارزان‌تر و سریع‌تر خواهد شد. اما امروزه مهاجرت از لیتوگرافی ۵ نانومتری به ۳ نانومتری، نه‌تنها ارزان‌تر نیست، بلکه هزینه‌های توسعه را گاهی تا دو یا سه برابر افزایش می‌دهد. پس آن موتور اقتصادی که محرک اصلی کوچک‌سازی بود، عملاً از کار افتاده است.

در سوی دیگر، پت گلسینگر، مدیرعامل سابق اینتل تا آخرین لحظات اصرار داشت که «قانون مور همچنان به حیات خود ادامه می‌دهد» و اینتل می‌تواند تا سال ۲۰۳۰ به تریلیون‌ها ترانزیستور در یک پکیج برسد. اما جنسن هوانگ، مدیرعامل انویدیا می‌گوید: «قانون مور مرده است؛ آن دورانی که تراشه‌ها هر سال دو برابر سریع‌تر و نصف قیمت می‌شدند، تمام شده. پیشرفت واقعی دیگر نه از کوچک‌سازی ترانزیستورها، بلکه از معماری هوشمندانه، شتاب‌دهنده‌های اختصاصی (مثل GPU) و نرم‌افزارهای بهینه حاصل می‌شود»

پنگ هم معتقد است که حتی با پایان قانون مور، نوآوری به کارش ادامه می‌دهد. او می‌گوید ما از عصر «بهبود قطعه» عبور کرده و وارد دوران «مقیاس‌بندی سیستم» شده‌ایم. یعنی دیگر نمی‌توانیم دست روی دست بگذاریم و منتظر باشیم که فیزیکِ ترانزیستورها به‌طور جادویی مشکل ما را حل کند؛ بلکه بارِ پیشرفت از دوشِ تک‌تکِ ترانزیستورها برداشته شده و بر دوشِ کلِ سیستم قرار گرفته است. در این دوره‌ی جدید، قدرت بیشتر نه از دلِ کوچک‌سازیِ تراشه، بلکه از طریق معماری‌های هوشمندانه و اتصال خلاقانه‌ی اجزا به یکدیگر متولد می‌شود.

دوران پس از قانون مور؛ عصر مهندسی سیستم

با توجه به حقایق فنی که بررسی کردیم، از دیوارهای اتمی و حرارتی گرفته تا شکستن قانون دنارد و هزینه‌های نجومی لیتوگرافی، حق با بدبین‌هاست. ما دیگر نمی‌توانیم با فشار دادن دکمه‌ی کوچک‌سازی، انتظار معجزه داشته باشیم. اما پایان یک دوران، به معنای پایانِ پیشرفت نیست. مهندسان مسیرهای متفاوتی را جایگزین قانون مور کرده‌اند که گرچه سخت‌تر و گران‌تر هستند، اما همچنان قطار تکنولوژی را به جلو می‌رانند.

در ادامه، به سراغ راهکارهای نوینی می‌رویم تا ببینیم دنیای پس از قانون مور چه شکلی خواهد بود.

گذار از FinFET به GAA در عصر محدودیت‌های اتمی

همان‌طور که گفتیم، با رسیدن ابعاد ترانزیستورها به مقیاس چند اتم، معماری‌های متداول مانند FinFET که گیت تنها سه سمت کانال را پوشش می‌دهد، دیگر قادر به مهار مؤثر جریان‌های نشتی نیستند. پاسخ صنعت به این بن‌بست، نه نازک‌تر کردن بیشتر لایه‌ها، بلکه یک تغییر ساختاری بنیادین بوده است: معماری Gate-All-Around یا GAA.

در این معماری نوین، گیت به جای احاطه‌ی سه طرفه، مانند یک حلقه‌ی کامل، از هر چهار طرف دور تا دورِ کانالِ جریان را می‌گیرد و مسیر عبور الکترون‌ها را کاملاً محاصره می‌کند. این تغییر باعث می‌شود تا گیت (به عنوان شیر کنترل‌کننده) تسلطی مطلق بر جریان داشته باشد و جلوی نشت ناخواسته‌ی الکترون در حالت خاموش را به شدت کاهش دهد. سامسونگ با فناوری MBCFET در لیتوگرافی ۳ نانومتری و اینتل با RibbonFET، با همین روش موفق شده‌اند تا مشکل نشت جریان و چگالی حرارتی را در ابعاد زیر ۳ نانومتر حل کنند و تراشه‌هایی با بازدهی انرژی بسیار بالاتر بسازند.

ظهور معماری‌های خاص (DSA)

جان هنسی، استاد برجسته‌ی علوم کامپیوتر و برنده‌ی جایزه‌ی نوبل کامپیوتر (تورینگ)، هشداری جدی می‌دهد که دوران سلطه‌ی پردازنده‌های عمومی (CPU) به پایان خود نزدیک می‌شود.

آینده‌ی محاسبات در گرو تخصص‌گرایی سخت‌افزار

او این پردازنده‌ها را به «آچار فرانسه» تشبیه می‌کند؛ ابزاری که گرچه راهگشای هر مشکلی خواهد بود، اما برای هیچ کاری بهترین نیست و همین همه‌کاره بودن در دنیای امروز به پاشنه‌ی آشیل آن تبدیل شده است.

مشکل اینجاست که در یک CPU، بخش اعظم تراشه و انرژی نه صرفِ محاسبه، بلکه صرفِ مدیریتِ محاسبه می‌شود؛ یعنی ترانزیستورها به جای حل مسائل ریاضی، درگیر کاغذبازی‌های داخلی مثل جابه‌جایی داده، پیش‌بینی دستورات و هماهنگی ترافیک اطلاعات هستند. تا وقتی قانون مور سرعت پردازش را بالا می‌بُرد، این اتلاف انرژی به چشم نمی‌آمد، اما اکنون که رشد متوقف شده، دیگر نمی‌توانیم ۹۰ درصد توان تراشه را خرجِ مدیریت و فرآیندهای نظارتی کنیم.

پاسخ صنعت به این بن‌بست، رویکردی به نام «معماری‌های خاص‌منظوره» (DSA) است. فلسفه‌ی DSA ساده است: دور ریختن بخش‌های مدیریتیِ اضافه و پر کردن تراشه با واحدهای محاسباتی خالص که فقط برای یک کار خاص، مثلاً هوش مصنوعی، طراحی شده‌اند.

نتیجه‌ی این تغییر در رویکرد مهندسی حیرت‌انگیز به‌نظر می‌رسد؛ چنان‌که تحقیقات دانشگاه MIT نشان داده یک سخت‌افزار تخصصی می‌تواند تا ۶۳٬۰۰۰ برابر سریع‌تر از یک پردازنده معمولی عمل کند. به همین علت امروزه شتاب‌دهنده‌هایی مثل GPU، NPU و مدارهای اختصاصی (ASIC) جایگزین پردازنده‌های سنتی شده‌اند و حتی در نمونه‌های پیشرفته‌تری مانند پردازنده REDEFINE، سخت‌افزار آنقدر هوشمند شده که می‌تواند آرایش داخلی خود را در لحظه تغییر دهد تا همیشه با بالاترین بازدهی کار کند.

شبکه‌ نوری درون‌تراشه‌ای؛ خداحافظی با سیم‌های داغ

تصور کنید موتور قدرتمند یک خودروی فرمول یک را روی بدنه‌ی یک گاری چوبی سوار کرده‌اید؛ هرچقدر موتور گاز بدهد، چرخ‌ها توان انتقال آن قدرت را ندارند. این دقیقاً وضعیتی است که ابررایانه‌های امروز با آن دست‌وپنج نرم می‌کنند. تراشه‌ها فوق‌العاده سریع شده‌اند، اما سیم‌های مسی که وظیفه‌ی انتقال داده‌ها را دارند، کُند هستند، سریع داغ می‌شوند و مثل یک گلوگاه، راه تنفس پردازنده را می‌بندند.

مهندسان به این بن‌بست، گلوگاه پهنای باند ورودی-خروجی (I/O Bandwidth Bottleneck) می‌گویند؛ جایی که دور تا دورِ تراشه با انبوهی از سیم‌های ورودی و خروجی محاصره شده و دیگر جای سوزن‌انداختن نیست.

حالا نوبت فوتون‌هاست تا بار آینده‌ی محاسبات را به دوش بکشند

راهکار عبور از این ترافیک سنگین، جایگزین کردن «الکترون» با «فوتون» است. دانشمندان موفق شده‌اند بزرگراه‌هایی از جنس نور بسازند که دقیقاً در قلبِ تراشه‌ها تعبیه می‌شوند. در این فناوری که «فوتونیک سیلیکونی» نام دارد، داده‌ها به جای آنکه با اصطکاک و تولید گرما از سیم‌های مسی عبور کنند، سوار بر پرتوهای لیزر می‌شوند و با سرعت نور جابه‌جا می‌گردند.

جادوی فوتونیک تنها در سرعت نیست، بلکه در پهنای باند خیره‌کننده‌ی آن است. در یک فیبر نوری نازک‌تر از تار مو، می‌توانیم با استفاده از تکنیک تفکیک طول‌موج، ۱۶ رنگ مختلف نور را همزمان شلیک کنیم که هر کدام حاملِ جریانِ داده‌ی مستقلی هستند؛ درست شبیه به احداث یک اتوبان ۱۶ طبقه در فضایی که قبلاً تنها یک کوچه باریک وجود داشت. نتیجه‌ی این انقلاب، حذف مرزهای فیزیکی میان تراشه‌هاست؛ صدها چیپ جداگانه چنان سریع و بی‌وقفه با هم ارتباط می‌گیرند که انگار در هم ذوب شده و یک «ابرمغز واحد» را تشکیل داده‌اند.

ظهور چیپلت‌ها؛ پایان عصر «یک‌تکه‌ها»

دوران حکمرانی مطلق تراشه‌های «یک‌تکه» (Monolithic Die) با تمام اجزای چاپ‌شده روی یک سطح سیلیکونی واحد، نفس‌های آخرش را می‌کشد. در فرآیندهای ساخت پیشرفته (مثل ۳ یا ۲ نانومتری)، رشد نمایی هزینه‌ی تولید تراشه‌ی بی‌نقص، ساخت قطعات بزرگ (دای‌های وسیع) را بسیار پرهزینه می‌کند؛ چرا که تنها یک نقص میکروسکوپی در سطحی وسیع، کل پردازنده را از رده خارج می‌کند.

اکنون گذار به معماری چیپلت به‌عنوان راهکارِ نجات‌بخش صنعت خودنمایی می‌کند. مهندسان با تفکیک پردازنده به کاشی‌های مجزا (هسته‌های پردازشی، گرافیک، SoC و IO)، به مزیت استراتژیکِ «ترکیبِ فناوری‌ها» دست می‌یابند. بدین ترتیب، کاشی محاسباتی (Compute Tile) که حاوی هسته‌های حساس CPU است، با پیشرفته‌ترین (و گران‌ترین) نودِ ساخت تولید می‌شود، در حالی که بخش‌های جانبی مثل گرافیک یا اتصالات IO را نودهای قدیمی‌تر و ارزان‌تر تشکیل می‌دهند.

تغییر پارادایم از سطح SoC به SoP و تمرکز نوآوری در سطح معماری بسته‌بندی

به‌عنوان مثال، شرکت اینتل در سری پردازنده‌های Panther Lake خود از این فناوری بهره برده است. در این پردازنده‌ها، تنها کاشی محاسباتی با لیتوگرافی انقلابی Intel 18A ساخته می‌شود، در حالی که سایر اجزا با نودهای متفاوت و بهینه‌تر تولید می‌شوند. تمام این اجزا با استفاده از تکنولوژی بسته‌بندی Foveros به صورت سه‌بعدی روی یک بستر پایه سوار می‌شوند تا با پهنای باند بالا و تأخیر ناچیز با هم ارتباط برقرار کنند.

این تغییر از مفهوم «سیستم روی تراشه» (SoC) به «سیستم روی بسته» (SoP)، جایی که نوآوری نه فقط در سطح ترانزیستور بلکه در سطح «بسته‌بندی» رخ می‌دهد، تنها راهِ تداوم قانون مور است. تنها روش باقی‌مانده برای طراحی‌های یک‌تکه، تراشه‌های موبایل (به دلیل حساسیت شدید به مصرف انرژی) و برخی محصولات اپل است؛ هرچند حتی اپل نیز در مدل‌های رده‌بالا، با تکنولوژی UltraFusion عملاً وارد دنیای چیپلت‌ها شده است.

آزادی عمل با RISC-V؛ کاهش هزینه‌ها و وابستگی

علاوه بر تغییرات سخت‌افزاری، مدل‌های تجاری دیتاسنترها نیز دستخوش تحول شده‌اند. شرکت‌های بزرگ برای کاهش هزینه‌های سنگین و مصرف برق، راه‌حلی فراتر از معماری‌های بسته (مانند x86 یا ARM) جستجو می‌کنند. چالش مدل‌های سنتی در اینجاست که شرکت‌ها علاوه بر پرداخت حق لایسنس بابت استفاده از طرح‌ها، امکان دستکاری یا بهینه‌سازی معماری اصلی برای نیازهای خاص خود را ندارند.

در این شرایط، معماری متن‌باز RISC-V به‌عنوان یک جایگزین کارآمد خودنمایی می‌کند. مشابه نقشی که لینوکس در نرم‌افزار ایفا کرد، RISC-V در سخت‌افزار به شرکت‌هایی مثل گوگل، آمازون و متا اجازه می‌دهد تا بدون پرداخت هزینه‌های لایسنس، به طراحی تراشه‌های اختصاصی خود بپردازند. مزیت فنی این آزادی عمل آنجاست که طراحان با حذف دستورالعمل‌های غیرضروری و اضافه از معماری، تراشه را دقیقاً متناسب با نیاز خود شخصی‌سازی می‌کنند.

اگرچه پردازنده‌های اصلی سرور و اجرای سیستم‌عامل همچنان تحت سلطه معماری‌های قدیمی قرار دارند، اما RISC-V اکنون راه خود را به بخش‌های حیاتی دیگر مانند شتاب‌دهنده‌های هوش مصنوعی و کنترلرهای جانبی باز کرده است. نتیجه این رویکرد، تولید تراشه‌هایی می‌شود که با حذف بخش‌های اضافه، وظایف تخصصی را با مصرف انرژی بسیار کمتر و هزینه پایین‌تر به انجام می‌رسانند.

تقلید از شاهکار طبیعت؛ محاسبات نورومورفیک

حتی با وجود تمام پیشرفت‌های DSA و فوتونیک، کامپیوترهای فعلی هنوز در بندِ معماری ۷۰ ساله‌ای به نام «فون نویمان» اسیر هستند؛ ساختاری که در آن واحد پردازش و حافظه از هم جدا افتاده‌اند و داده‌ها باید مدام بین این دو جزیره سرگردان باشند، فرایندی که گلوگاهی پرهزینه ایجاد کرده و بخش عظیمی از انرژی و زمان سیستم را می‌بلعد. در مقابل این ناکارآمدی، مهندسان به سراغ قدیمی‌ترین و بهینه‌ترین کامپیوتر جهان، یعنی مغز انسان رفته‌اند.

مغز ما با مصرف انرژی ناچیز ۲۰ وات (معادل یک لامپ کم‌مصرف)، پردازش‌هایی را انجام می‌دهد که ابررایانه‌های چند مگاواتی در برابر آن زانو می‌زنند. راز این بهره‌وری شگفت‌انگیز در معماری یکپارچه‌ی آن نهفته است؛ در مغز، مرزی میان «حافظه» و «پردازش» وجود ندارد و هر نورون هم‌زمان هم داده را ذخیره می‌کند و هم روی آن محاسبه انجام می‌دهد.

فناوری «محاسبات نورومورفیک» دقیقاً با هدف تقلید از همین ساختار بیولوژیک متولد شده است. در این تراشه‌های نوین (مانند تراشه‌ی Loihi شرکت اینتل)، محاسبات مستقیماً در محل ذخیره‌ی داده‌ها انجام می‌شود و برخلاف پردازنده‌های سنتی که مثل یک ساعتِ همیشه روشن مدام انرژی می‌سوزانند، مدارهای نورومورفیک تنها زمانی فعال می‌شوند که سیگنال جدیدی دریافت کنند.؛ همین هوشمندی ذاتی باعث شده تا این تراشه‌ها در وظایف خاص تا ۱۰۰۰ برابر کم‌مصرف‌تر باشند.

حلقه مفقوده؛ جادوی نرم‌افزار و «قانون هوانگ»

در سایه‌ی تحولات عمیق سخت‌افزاری، از معماری چیپلت تا تراشه‌های نوری، شاید نقش نرم‌افزار کمرنگ به‌نظر برسد؛ اما در حقیقت وارد عصر «هم‌طراحی» (Co-design) شده‌ایم؛ دورانی که در آن مرز میان نرم‌افزار و سخت‌افزار فرو می‌ریزد. در دوران پسا-مور، الگوریتم‌ها نه روی «لایه‌ی انتزاعی»، بلکه مستقیماً با در نظر گرفتن معماری تراشه، پهنای باند حافظه و مصرف انرژی توسعه می‌یابند تا اتلاف منابع را به حداقل ممکن برسانند.

بهترین مثال، «قانون هوانگ» (Huang’s Law) است. درحالی‌که قانون مور بر «مقیاس‌دهی لیتوگرافی» تمرکز داشت، هوانگ استدلال می‌کند که جهش‌های نمایی در عملکرد محاسباتی، به‌ویژه در حوزه هوش مصنوعی، حاصل هم‌افزایی میان معماری سخت‌افزار، الگوریتم‌های نوین و فرمت‌های داده است.

مدیرعامل انویدیا اعتقاد دارد که افزایش حدود ۱۰۰۰ برابری در عملکرد استنتاج هوش مصنوعی و GPUهای انویدیا در دهه‌ی اخیر، نه تنها مدیون تراکم بیشتر ترانزیستورها بوده، بلکه ثمره‌ی نوآوری‌های هم‌افزای سخت‌افزار و نرم‌افزار به‌حساب می‌آید؛ نوآوری‌هایی نظیر فرمت داده FP8 که با کاهش دقت از ۳۲ بیت به ۸ بیت، بدون افت چشمگیر کیفیت مدل، سرعت پردازش و پهنای باند را به‌طور چشمگیری افزایش می‌دهد، و پلتفرم CUDA که به برنامه‌نویسان اجازه می‌دهد مستقیماً با واحدهای پردازشی موازی صحبت کنند و آنچه را که در «لایه‌ی انتزاعی» قرار داشت، به سطح پایین‌تر و کارآمدتر منتقل کنند.

این الگو از نمونه‌ی پردازنده‌های گرافیکی انویدیا فراتر می‌رود و به‌عنوان یک چارچوب کلی برای صنعت کامپیوتر مطرح می‌شود؛ در آینده، پیشرفت کلی محاسبات دیگر فقط به افزایش چگالی ترانزیستور وابسته نخواهد بود و در آن، نرم‌افزار دیگر یک «لایه‌ی بالایی» نیست، بلکه یکی از مولفه‌های اصلی مهندسی عملکرد خواهد بود.

آینده، در گرو همگرایی سخت‌افزار و نرم‌افزار

واقعیت این است که در دوران پسا-مور، دیگر قهرمانِ تک‌نفره‌ای وجود ندارد. نه سخت‌افزار به‌تنهایی می‌تواند از مرزهای فیزیک عبور کند و نه نرم‌افزار بدون زیرساخت محاسباتی قدرتمند قادر به خلق پیشرفت محسوس خواهد بود. آینده‌ی محاسبات، نه در تلاشِ تکراری برای کوچک‌سازیِ ترانزیستورها و نه در انتظار بهینه‌سازی‌های انتزاعیِ نرم‌افزاری، بلکه در هم‌افزاییِ ساختاری میان این دو حوزه نهفته است.

ما در آستانه‌ی عصر جدیدی ایستاده‌ایم؛ عصری که در آن تراشه‌های فوتونیک، معماری‌های نورومورفیک و الگوریتم‌های آگاه به سخت‌افزار، به‌صورت یکپارچه عمل می‌کنند تا گلوگاه‌های فیزیکی را دور بزنند. شاید قانون مور مرده باشد؛ اما رویای انسان برای خلق سیستم‌های هوشمندتر و پیچیده‌تر، زنده‌تر و آماده‌تر از همیشه به‌پیش می‌رود.

تبلیغات
تبلیغات

نظرات