بحران محاسباتی در هوش مصنوعی به دلیل نبوده مدلهای غولپیکر بلکه ناشی از گسترش هزاران مدل کوچکتر است. این مدلهای تخصصی در صنایع و دولتها توسعه یافتهاند و در حال مصرف بیسابقه منابع محاسباتی هستند. این تصویری نادرست از مسئولیت اصلی بحران به وجود آورده است.
با ظهور مدلهای جدید، رقابت فشردهای در زمینه هوش مصنوعی در حال وقوع است که سازمانها را وادار کرده تا به سمت مدلهای خصوصی و تخصصی رو بیاورند. این امر باعث افزایش تقاضای غیرقابل پیشبینی برای زیرساختها و منابع محاسباتی میشود و پیامدهای مالی و زیستمحیطی را به دنبال دارد.
نتیجهگیری این است که بحران محاسباتی فراتر از مشکلات مرتبط با مدلهای بزرگ است و به گسترش غیرقابل کنترل مدلهای متعدد در بخشهای مختلف مربوط میشود. آینده هوش مصنوعی بهسوی پراکندگی و توزیع شدن پیش میرود و به این ترتیب، مسألهای جدی برای دولتها و صنایع به وجود آورده است.
هر بار که یک مدل جدید از راه میرسد، چه نسخهای تازه از GPT باشد، چه پروژههایی مثل DeepSeek یا Gemini، همه درباره عظمت، پیچیدگی و ولع محاسباتی این مدلها صحبت میکنند. این تصور شکل گرفته که مدلهای غولآسا مسئول اصلی بحران منابع و زیرساخت در انقلاب هوش مصنوعی هستند.
اما این تصور اشتباه است.
درست است که مدلهای بزرگ بسیار پرهزینهاند، اما بزرگترین فشار وارد بر زیرساختهای محاسباتی نه از سوی چند مدل شناختهشده، بلکه از انباشت گسترده مدلهای کوچکتر در صنایع مختلف ایجاد میشود؛ مدلهایی که برای کاربردهای خاص آموزش داده میشوند و در حال مصرف بیسابقه منابع محاسباتی هستند.
آینده هوش مصنوعی: میلیونها مدل تخصصی، نه فقط یک ابرمدل
با وجود رقابت فشرده میان مدلهای زبانی بزرگ، آینده هوش مصنوعی در حال تمرکززدایی است، سازمانها دیگر صرفاً از مدلهای عمومی استفاده نمیکنند؛ آنها مدلهای خصوصی خودشان را آموزش میدهند، شخصیسازی میکنند و در محیطهای ایزوله مستقر میسازند.
این همان چیزی است که منحنی تقاضا برای زیرساخت هوش مصنوعی را از پیشبینیها فراتر میبرد، موجی که شرکتهای ابری، دولتها و حتی سازندگان تراشه برای آن آمادگی ندارند.
این روند پیشینه دارد: در دوران کلاد هم تصور میشد همه چیز متمرکز میشود، اما نتیجه یا پراکندگی بود، ابتدا سرورها، سپس ماشینهای مجازی و حالا: پراکندگی هوشمصنوعی.
پراکندگی هوشمصنوعی چیست؟ چرا هر صنعت مدل خودش را میسازد؟
از مسائل مالی و لجستیک گرفته تا بهداشت و خدمات مشتری، هر بخش مدل هوش مصنوعی مخصوص به خودش را دارد. هیچ سازمانی تنها یک مدل برای همه کارهایش آموزش نمیدهد؛ بلکه هزاران مدل در مقیاس خرد در بخشهای مختلف ایجاد میشوند.
این به معنای:
- چرخههای آموزشی بیشتر
- مصرف محاسباتی بالاتر
- نیاز به ذخیرهسازی بیشتر
- پراکندگی در زیرساختها
طبق گزارش McKinsey در سال ۲۰۲۴، سازمانها بهطور متوسط در سه بخش از کسبوکارشان از AI استفاده میکنند؛ با تمرکز ویژه بر تولید، زنجیره تأمین و توسعه محصول.
مثالهای واقعی:
- Navina، استارتاپ حوزه سلامت که AI را با سوابق پزشکی الکترونیکی ترکیب کرده، بهتازگی ۵۵ میلیون دلار سرمایه جذب کرده است.
- در صنعت انرژی، کنسرسیوم Open Power AI برای بهینهسازی عملیات شبکه و نیروگاهها راهاندازی شده است.
فشار محاسباتی که کمتر کسی دربارهاش حرف میزند
تصور رایج این است که کلاد میتواند بهصورت بینهایت مقیاسپذیر باشد و رشد AI را پوشش دهد. اما این فرضیه دیگر درست نیست. تقاضای هوش مصنوعی خطی نیست، بلکه نمایی است و شرکتهای هایپرسکیلر از آن عقب ماندهاند.
واقعیتهای زیرساختی
- مراکز داده تخصصی هوش مصنوعی نه بر اساس نیاز به شبکه، بلکه با محوریت «دسترسی به برق» طراحی میشوند.
- گلوگاههای شبکهای در محیطهای هیبریدی بدون اتوماسیون روزبهروز بدتر میشود.
- فشار مالی شدید: بار محاسباتی هوش مصنوعی ممکن است ماهانه میلیونها دلار هزینه روی دوش شرکتها بگذارد.
طبق دادههای آژانس بینالمللی انرژی، مراکز داده هماکنون ۱٪ مصرف برق جهانی را به خود اختصاص دادهاند. این عدد در کشورهایی مثل ایرلند تا ۲۰٪ هم میرسد و روند صعودی دارد.
بحران GPU و فشار بر زنجیره تأمین
شرکت Bain & Company هشدار داده رشد انفجاری هوش مصنوعی، زمینهساز یک بحران جهانی تراشه خواهد بود. کمبود GPUهای مناسب مراکز داده میتواند نه فقط شرکتهای فناوری، بلکه سازمانهای خدماتی، پزشکی، امنیتی و حتی نظامی بلکه کل صنعت را زمینگیر کند.
در کنار این بحران سختافزاری، معضل پایداری زیستمحیطی AI نیز مطرح است. مطالعهای در سال ۲۰۲۴ نشان میدهد استفاده گسترده از AI در بخش سلامت میتواند مصرف انرژی و انتشار کربن را بهطور چشمگیری افزایش دهد، مگر اینکه با راهکارهای بهرهور جبران شود.
مسئله فقط بازار نیست؛ هوش مصنوعی حالا یک مسأله حاکمیتی است
برخلاف تصور عمومی، بزرگترین عامل گسترش AI نه شرکتها، بلکه دولتها و نهادهای دفاعی هستند. آنها در حال راهاندازی مدلهای اختصاصی در مقیاسی هستند که حتی از دسترس هایپرسکیلرها خارج است.
مثالها:
- دولت ایالات متحده بیش از ۷۰۰ کاربرد AI را در ۲۷ نهاد پیادهسازی کرده است؛ از تحلیل اطلاعات تا لجستیک و نظارت.
- کانادا تا سقف ۷۰۰ میلیون دلار برای توسعه زیرساختهای محاسباتی AI سرمایهگذاری کرده و پروژهای ملی برای ساخت دیتاسنترهای مستقل راه انداخته است.
برخی از تحلیلگران، مانند MIT Technology Review، خواهان یک «برنامه آپولو برای زیرساخت هوش مصنوعی» هستند؛ یعنی اختصاص بودجه و توجهی در حد برنامههای فضایی.
در این فضا، بازده اقتصادی یا کارایی دیگر معیار اصلی نیست. زیرساختهای نظامی بهدلیل ملاحظات امنیت ملی، کاملاً ایزوله، سنگین، پرمصرف و خارج از بهینهسازی خواهند بود.
کلام آخر: مدلهای بزرگ فقط نوک کوه یخ هستند
بحران محاسباتی فعلی در هوش مصنوعی نه از غولهایی مثل GPT و Gemini، بلکه از گسترش پنهان هزاران مدل تخصصی در صنایع، دولتها و ارتشها نشأت میگیرد.
تصور اینکه میتوان با یک مدل مرکزی یا چند دیتاسنتر متمرکز، آینده AI را مدیریت کرد، خطرناک و ناکارآمد است. آینده نه متمرکز، بلکه توزیعشده است؛ با میلیونها مدل در حال اجرا و تقاضایی که از مرزهای فنی، اقتصادی و زیستمحیطی عبور کرده است.