معماری شبکه‌بندی هوش مصنوعی نوکیا برای داده‌های عظیم

معماری شبکه هوش مصنوعی نوکیا با زیرساخت FP5، مراکز داده پیشرفته و تصویر مدیرعامل نوکیا در پس‌زمینه دیجیتال
شبکه هوش مصنوعی نوکیا | معماری مرکز داده AI | راهکارهای Nokia FP5 برای آموزش مدل‌های بزرگ

آینده شبکه‌بندی هوش مصنوعی: معماری نوکیا برای مدیریت داده‌های عظیم AI

تحلیل عمیق معماری شبکه‌بندی هوش مصنوعی نوکیا، راهکارهای FP5 و زیرساخت‌های مرکز داده نسل بعدی برای مقابله با سونامی داده‌های هوش مصنوعی در مقیاس بزرگ

سونامی داده هوش مصنوعی: چرا شبکه‌های کنونی ناکافی هستند؟

همگام با تحول هوش مصنوعی از خوشه‌های آزمایشی به استقرار سازمانی در مقیاس بزرگ، زیرساخت شبکه با تقاضایی بی‌سابقه و چالش‌برانگیز مواجه است. نوکیا، به عنوان پیشرو تاریخی در صنعت مخابرات و شبکه‌بندی، اکنون خود را در مرکز این تحول انقلابی با توسعه راه‌حل‌های تخصصی شبکه‌بندی هوش مصنوعی قرار داده است. این تحلیل عمیق، دیدگاه استراتژیک، فناوری‌های پیشرفته و تغییرات معماری اساسی لازم برای نیرودهی به آینده هوش مصنوعی در مقیاس بزرگ توسط نوکیا را مورد بررسی جامع قرار می‌دهد.

هوش مصنوعی و یادگیری ماشین تنها یک برنامه کاربردی دیگر روی شبکه نیستند؛ آن‌ها نمایانگر تغییر بنیادین در الگوهای ترافیک داده، نیازمندی‌های پهنای باند و الزامات تأخیر شبکه هستند. شبکه‌های سنتی که برای ترافیک عمودی (north-south) طراحی شده‌اند، کاملاً برای ترافیک افقی (east-west) هوش مصنوعی که بین سرورها و واحدهای پردازش گرافیکی (GPU) جریان دارد، ناکافی هستند.

کاربردهای هوش مصنوعی و یادگیری ماشین مدرن، به ویژه مدل‌های بنیادی (Foundation Models) و مدل‌های زبانی بزرگ (LLMs)، نیازمند تبادل داده‌های عظیم بین هزاران گره محاسباتی به صورت همزمان هستند. این الگوی ترافیکی کاملاً با ترافیک سنتی وب و ابری متفاوت است و نیازمند بازنگری اساسی در معماری شبکه‌های مرکز داده است.

تفاوت‌های اساسی ترافیک سنتی و ترافیک هوش مصنوعی

ویژگی داده ابری/وب سنتی کاربری‌های هوش مصنوعی/یادگیری ماشین تأثیر بر معماری شبکه
جهت جریان داده شمال-جنوب (کلاینت به سرور) شرق-غرب (سرور به سرور، GPU به GPU) نیاز به معماری مسطح با تأخیر بسیار کم
حجم داده هر کار مگابایت تا چند گیگابایت ترابایت تا ده‌ها پتابایت تقاضای نمایی برای پهنای باند و ظرفیت شبکه
حساسیت به تأخیر متوسط (محدوده میلی‌ثانیه قابل قبول است) فوق‌العاده شدید (محدوده میکروثانیه الزامی است) تأخیر قطعی و قابل پیش‌بینی غیرقابل مذاکره است
الگوی ارتباطی ناگهانی، ناهمگام، مبتنی بر درخواست پیوسته، همگام، الگوی All-Reduce نیاز به توان عملیاتی پایدار و قابل اطمینان
وابستگی به تکمیل کار تحمل نسبی از دست دادن بسته عدم تحمل مطلق (از دست رفتن باعث شکست کامل کار می‌شود) ضرورت قابلیت اطمینان فوق‌العاده بالا و نرخ خطای صفر
مدت زمان جریان‌ها کوتاه‌مدت (ثانیه تا دقیقه) بلندمدت (ساعت تا روزها) نیاز به پایداری طولانی‌مدت و مدیریت منابع پایدار
مقایسه رشد حجم داده‌های هوش مصنوعی در مقابل داده‌های سنتی (۲۰۲۰-۲۰۳۰)

این جدول مقایسه‌ای به وضوح چالش اصلی را برجسته می‌کند: ترافیک هوش مصنوعی یک "عامل فشار حداکثری" در مرکز داده است. این ترافیک نیازمند جریان‌های داده پیوسته، بدون مانع و با پهنای باند تضمین‌شده است که می‌توانند لینک‌های شبکه را برای ساعت‌ها، روزها یا حتی هفته‌ها در طول فرآیند آموزش مدل‌های بزرگ به طور کامل اشباع کنند. از دست دادن حتی یک بسته داده در این محیط می‌تواند یک جلسه آموزش توزیع‌شده ارزشمند را به طور کامل متلاشی کند، که منجر به هدر رفتن هزاران ساعت محاسباتی GPU و هزینه‌های مالی هنگفت می‌شود.

آمارهای کلیدی رشد هوش مصنوعی و تأثیر آن بر شبکه

۴۰٪
کاهش زمان آموزش مدل‌های بزرگ با شبکه‌های بهینه‌شده برای AI
۱۰۰x
افزایش حجم داده‌های هوش مصنوعی نسبت به داده‌های سنتی در هر کار
۷۰٪
کاهش بهره‌وری GPU در شبکه‌های سنتی به دلیل محدودیت‌های شبکه

چارچوب شبکه‌بندی هوش مصنوعی نوکیا: یک استراتژی چندلایه یکپارچه

رویکرد نوکیا در شبکه‌بندی هوش مصنوعی، همانطور که در مستندات فنی و راهکارهای این شرکت به تفصیل شرح داده شده است، نه یک محصول منفرد، بلکه یک چارچوب منسجم و یکپارچه است که لایه‌های مختلفی از فناوری شامل سیلیکون تخصصی، سیستم‌های سخت‌افزاری پیشرفته و نرم‌افزارهای هوشمند مدیریت شبکه را در بر می‌گیرد. این رویکرد چندلایه امکان بهینه‌سازی عملکرد در تمام سطوح معماری شبکه را فراهم می‌آورد.

1 پایه سخت‌افزاری: سیلیکون تخصصی Nokia FP5

در قلب راهکارهای شبکه‌بندی هوش مصنوعی نوکیا، تراشه مسیریابی FP5 قرار دارد که به طور خاص برای مواجهه با چالش‌های دنیای واقعی هوش مصنوعی طراحی شده است. این تراشه نسل ششم ASIC نوکیا، قابلیت‌های پیشرفته‌ای ارائه می‌دهد که آن را برای محیط‌های هوش مصنوعی ایده‌آل می‌سازد:

  • مقیاس‌پذیری بی‌نظیر: پشتیبانی از پهنای باند تا ۱.۸ ترابیت بر ثانیه در هر اسلات، طراحی‌شده برای مدیریت جریان‌های عظیم داده هوش مصنوعی بدون ایجاد رقابت یا گلوگاه.
  • کیفیت سرویس (QoS) پیشرفته: مکانیزم‌های مدیریت بافر عمیق و مهندسی ترافیک دانه‌ریز که اطمینان می‌دهند جریان‌های حیاتی هوش مصنوعی هرگز به دلیل رقابت با ترافیک دیگر دچار گرسنگی منابع نمی‌شوند.
  • تله‌متری درون باند شبکه (INT): قابلیت نظارت لحظه‌ای با دقت نانوثانیه بر پارامترهای حیاتی شبکه از جمله تأخیر، انباشت صف و نقاط داغ احتمالی — این ویژگی برای پیشگیری و عیب‌یابی سریع مشکلات در خوشه‌های هوش مصنوعی حیاتی است.
  • بهینه‌سازی مصرف انرژی: الگوریتم‌های هوشمند کاهش مصرف انرژی بدون تأثیر بر عملکرد، که در مقیاس بزرگ مراکز داده هوش مصنوعی اهمیت اقتصادی فوق‌العاده‌ای دارد.
Nokia FP5 Networking Chip - ظرفیت ۱.۸ ترابیت بر ثانیه - بهینه‌شده برای هوش مصنوعی
مقایسه عملکرد تراشه‌های شبکه‌بندی نسل‌های مختلف (ظرفیت در ترابیت بر ثانیه)

2 تحول معماری: گذر از پارچه‌های سلسله‌مراتبی به معماری‌های تجزیه‌شده و مسطح

نوکیا به صراحت از حرکت به دور از طراحی‌های شبکه سنتی مبتنی بر درخت (Tree-Based) و معماری‌های Clos متعارف به سمت پارچه‌های شبکه با قطر بالا (High-Radix)، تجزیه‌شده و کاملاً مسطح حمایت و آن را ترویج می‌کند. این تغییر معماری شبکه برای کاهش hops شبکه و حداقل‌سازی تأخیرهای end-to-end ضروری است.

دوره زمانی معماری غالب شبکه موارد استفاده اصلی محدودیت‌های اصلی برای آموزش هوش مصنوعی
دهه ۲۰۱۰ میلادی معماری ۳ لایه (هسته/تجمیع/دسترسی) شرکت‌های عمومی، خدمات وب اولیه، اپلیکیشن‌های سازمانی تأخیر بالا (چندین hops)، پهنای باند اشتراک‌گذاری شده شدید، عدم امکان ارتباط مستقیم East-West
دهه ۲۰۱۰ تا ۲۰۲۰ معماری برگ-ستون فقرات (پارچه Clos) محیط‌های ابری بومی (Cloud-Native)، زیرساخت‌های ابری در مقیاس بزرگ (Hyperscale) بهبود یافته اما همچنان مستعد مشکلات هش کردن ناهموار ECMP و ترافیک "Incast" در زمان سنکرون‌سازی All-Reduce
آینده (بومی هوش مصنوعی) سوپر-ستون فقرات تجزیه‌شده / پارچه مستقیم با قطر بالا خوشه‌های هوش مصنوعی/یادگیری ماشین در مقیاس عظیم، محیط‌های HPC پیشرفته امکان اتصال غیرمسدود (Non-Blocking)، هر به هر (Any-to-Any) برای هزاران GPU با حداقل تأخیر و حداکثر کارایی

مفهوم بصری معماری آینده: یک شبکه توری متراکم، مسطح و کاملاً متصل را تصور کنید که در آن هر قفسه GPU یک مسیر مستقیم، با پهنای باند بالا و تأخیر حداقلی به هر قفسه GPU دیگر در مرکز داده دارد. این اتصالات توسط یک کنترلر متمرکز هوشمند که دید کلی از تمامی جریان‌های داده دارد، مدیریت و بهینه‌سازی می‌شوند.

مقایسه تأخیر در معماری‌های مختلف شبکه برای ترافیک هوش مصنوعی

3 مغز مرکزی: سیستم عامل شبکه SR Linux و کنترلرهای SDN هوشمند

سخت‌افزار پیشرفته به تنهایی برای مواجهه با پیچیدگی‌های شبکه‌بندی هوش مصنوعی کافی نیست. سیستم عامل شبکه SR Linux نوکیا و کنترلرهای SDN (شبکه‌های نرم‌افزارمحور) پیشرفته لایه هوشمندی را ارائه می‌دهند که مدیریت، بهینه‌سازی و خودکارسازی شبکه‌های هوش مصنوعی در مقیاس بزرگ را امکان‌پذیر می‌سازد:

  • شبکه‌بندی مبتنی بر قصد (Intent-Based Networking) برای هوش مصنوعی: امکان تعریف خط‌مشی‌های سطح بالا مانند "خوشه کار هوش مصنوعی A باید ۴۰۰ گیگابیت بر ثانیه پهنای باند تضمین‌شده با تأخیر end-to-end کمتر از ۱۰ میکروثانیه دریافت کند." سیستم به طور خودکار این نیازمندی را تفسیر، پیکربندی، اجرا و در طول زمان تضمین می‌کند.
  • بهینه‌سازی دینامیک در سراسر پارچه: قابلیت مسیریابی مجدد جریان‌ها به صورت پویا در اطراف ازدحام موقت، خرابی‌های لینک یا تجهیزات، بدون ایجاد اختلال در کارهای آموزشی همگام‌شده حساس به زمان.
  • ادغام عمیق با ارکسترتورهای هوش مصنوعی: APIهای باز و استانداردشده که به پلتفرم‌هایی مانند Kubernetes (K8s)، Apache Mesos یا برنامه‌ریزان کار HPC مانند SLURM اجازه می‌دهند تا به طور مستقیم منابع شبکه مورد نیاز را درخواست و رزرو کنند. این امر یک پیوستگی واقعی بین لایه‌های محاسبه، ذخیره‌سازی و شبکه ایجاد می‌کند.
  • تحلیل پیش‌بینانه و خوددرمانی: استفاده از یادگیری ماشین برای تحلیل الگوهای ترافیکی، پیش‌بینی مشکلات احتمالی و انجام اقدامات اصلاحی قبل از وقوع اختلال در سرویس.

کاربرد عملی: نقشه معماری مرکز داده هوش مصنوعی نسل آینده

برای درک عمیق‌تر تأثیر راهکارهای نوکیا، بیایید یک مرکز داده هوش مصنوعی در مقیاس بزرگ و فرضی (Hyperscale AI Data Center) را که به طور کامل بر اساس اصول و معماری پیشنهادی نوکیا طراحی و پیاده‌سازی شده است، مدل‌سازی و بررسی کنیم. این مدل نشان می‌دهد که چگونه مؤلفه‌های مختلف با یکدیگر تعامل می‌کنند تا یک محیط بهینه برای آموزش مدل‌های بزرگ هوش مصنوعی فراهم آورند.

پروفایل شبکه یک خوشه هوش مصنوعی ۱۰۲۴-GPU فرضی مبتنی بر معماری نوکیا

کامپوننت/لایه مشخصات فنی و پیکربندی نقش و عملکرد در کاربرد هوش مصنوعی
گره‌های محاسباتی ۱۲۸ سرور پرچگالی، هر کدام مجهز به ۸x NVIDIA H100 GPU با NVLink تأمین ۱۰۲۴ واحد پردازش گرافیکی برای آموزش توزیع‌شده مدل‌های بزرگ
کارت شبکه سرور (NIC) ۲x کارت شبکه ۴۰۰GbE (دوگانه) به ازای هر سرور، پشتیبانی از RDMA و RoCEv2 ارائه افزونگی (Redundancy) و تجمیع پهنای باند، کاهش تأخیر با دور زدن CPU
لایه برگ (Leaf) Nokia 7220 IXR Router (مبتنی بر تراشه FP5) اولین نقطه اتصال سرور به شبکه؛ اعمال QoS، جمع‌آوری تله‌متری، مسیریابی اولیه
هسته پارچه (Fabric Core) معماری سوپر-ستون فقرات تجزیه‌شده با استفاده از Nokia 7750 SR-s Series ارائه اتصال غیرمسدود (Non-Blocking)، هر به هر (Any-to-Any) در مقیاس کامل خوشه
پهنای باند دوسویه کلی حدود ۴۰۹.۶ ترابیت بر ثانیه (Bisection Bandwidth) اطمینان حاصل می‌کند که هیچ GPU‌ای منتظر شبکه برای تبادل گرادیان‌ها نمی‌ماند
کنترلر مدیریت و ارکستراسیون Nokia NSP (Network Services Platform) + ادغام با Kubernetes مدیریت یکپارچه، خودکارسازی و تضمین سرویس در سراسر زیرساخت
معیار کلیدی: زمان تکمیل کار کاهش حدود ۳۵-۴۵٪ (در مقایسه با پارچه‌های شبکه معمولی) نتیجه مستقیم حذف گلوگاه‌های شبکه و بهینه‌سازی جریان‌های All-Reduce
تأثیر معماری شبکه بر زمان آموزش مدل‌های بزرگ هوش مصنوعی

فرآیند آموزش توزیع‌شده: جریان داده مرحله به مرحله

1

بارگذاری نقطه کنترل اولیه

یک نقطه کنترل (Checkpoint) مدل به حجم ۵۰-۱۰۰ ترابایت از سیستم ذخیره‌سازی موازی (Parallel File System) در عرض چند ده ثانیه در سراسر پارچه شبکه به تمامی ۱۰۲۴ GPU بارگذاری می‌شود.

2

گذر به جلو و عقب (Forward/Backward Pass)

هر GPU به طور مستقل یک مینی‌بچ (Mini-Batch) از داده‌ها را پردازش می‌کند و گرادیان‌های محلی را محاسبه می‌کند. در این مرحله ترافیک شبکه نسبتاً کم است.

3

همگام‌سازی All-Reduce (مرحله بحرانی)

گرادیان‌های محلی محاسبه‌شده از تمامی ۱۰۲۴ GPU باید جمع‌آوری، میانگین‌گیری و در میان همه گره‌ها توزیع شوند. پارچه شبکه نوکیا این ترافیک عظیم همه-به-همه (All-to-All) را با تأخیر قطعی و حداقلی مدیریت می‌کند.

4

به‌روزرسانی پارامترهای مدل

گرادیان‌های همگام‌شده جهانی برای به‌روزرسانی پارامترهای مدل استفاده می‌شوند. چرخه برای مینی‌بچ بعدی تکرار می‌شود.

در یک شبکه سنتی یا به‌طور بهینه‌سازی‌نشده، سیستم می‌تواند بیش از ۷۰٪ از کل زمان چرخه آموزش را در مرحله ۳ (همگام‌سازی All-Reduce) صرف کند — وضعیتی که به "محدودیت شبکه" (Network-Bound) معروف است. در این حالت، GPUهای قدرتمند و گران‌قیمت بیشتر اوقات بیکار می‌مانند و منتظر شبکه هستند. هدف راهکار نوکیا کاهش این زمان انتظار به نزدیک صفر است و تضمین می‌کند که GPUها با حداکثر بهره‌وری کار کنند.

چالش‌ها، موانع و راهکارهای آینده شبکه‌بندی هوش مصنوعی

اگرچه مزایای شبکه‌های بومی هوش مصنوعی (AI-Native Networks) واضح و قابل توجه است، اما حرکت به سمت این معماری شبکه جدید بدون چالش و مانع نیست. درک این موانع برای سازمان‌هایی که قصد مهاجرت به این معماری را دارند، ضروری است.

مهم‌ترین چالش‌های عملی پیاده‌سازی شبکه‌های هوش مصنوعی:

  • هزینه سرمایه‌گذاری اولیه بالا: این سطح از عملکرد و بهینه‌سازی نیازمند تجهیزات پیشرفته (اپتیک‌های با سرعت بالا، سوئیچ‌های با ظرفیت زیاد، سیلیکون تخصصی) است که می‌تواند هزینه اولیه قابل توجهی داشته باشد. بازگشت سرمایه (ROI) باید به دقت بر اساس شاخص‌هایی مانند کاهش زمان آموزش مدل (Faster Time-to-Model) و افزایش نرخ بهره‌وری GPU (GPU Utilization Rate) محاسبه شود.
  • شکاف مهارتی و نیاز به آموزش تیم‌ها: تیم‌های سنتی شبکه‌بندی باید الگوهای کار (Workload Patterns) مختص هوش مصنوعی و محاسبات کارایی بالا (HPC) را به طور عمیق بیاموزند. همزمان، مهندسان و پژوهشگران هوش مصنوعی نیز نیازمند درک اصول اولیه شبکه برای طراحی معماری‌های کارآمد هستند.
  • پیچیدگی مدیریت و عملیات (Management Complexity): شبکه‌های نرم‌افزارمحور (SDN) و مبتنی بر قصد (Intent-Based) اگرچه قدرتمند هستند، اما پیچیدگی عملیاتی جدیدی را معرفی می‌کنند که نیازمند ابزارها و فرآیندهای مدیریتی جدید است.
  • نگرانی‌های مربوط به قفل‌شدگی فروشنده (Vendor Lock-in): آیا راهکارهای ارائه‌شده بر اساس استانداردهای باز و چندفروشنده (Multi-Vendor) هستند؟ اگرچه نوکیا از استانداردهای باز مانند SONiC (Software for Open Networking in the Cloud) و پروتکل‌هایی مانند gNMI پشتیبانی می‌کند، اما ادغام عمیق بین لایه‌های مختلف معماری می‌تواند مزایای عملکردی ارائه دهد که ممکن است به محصولات اختصاصی متکی باشد.
  • یکپارچه‌سازی با اکوسیستم موجود: بسیاری از سازمان‌ها زیرساخت‌های محاسباتی و ذخیره‌سازی موجودی دارند. یکپارچه‌سازی شبکه‌بندی پیشرفته هوش مصنوعی با این محیط‌های موجود می‌تواند چالش فنی قابل توجهی باشد.

رقبای اصلی نوکیا در این عرصه شامل دو دسته هستند: دسته اول، غول‌های ابری (Hyperscalers) مانند گوگل، آمازون AWS و مایکروسافت Azure که در حال ساخت تجهیزات شبکه سفارشی و اختصاصی برای نیازهای داخلی خود هستند. دسته دوم، سایر فروشندگان سنتی و قدرتمند شبکه مانند سیسکو (Cisco)، آریستا (Arista Networks) و جونایپر (Juniper Networks) هستند که همگی به شدت در حال رقابت و عرضه راهکارهای "پارچه هوش مصنوعی" (AI Fabric) و "شبکه‌های بومی هوش مصنوعی" (AI-Native Networks) می‌باشند.

سهم بازار فروشندگان اصلی در بخش شبکه‌بندی مراکز داده هوش مصنوعی (پیش‌بینی ۲۰۲۴)

نتیجه‌گیری نهایی: شبکه‌بندی به عنوان شتاب‌دهنده استراتژیک هوش مصنوعی

شبکه: شتاب‌دهنده استراتژیک هوش مصنوعی در عصر مدل‌های بزرگ

تز و دیدگاه کلیدی نوکیا ساده اما قدرتمند است: در عصر مدل‌های هوش مصنوعی عظیم (Massive AI Models)، شبکه دیگر یک زیرساخت پسیو یا "لوله‌کشی" داده نیست؛ بلکه یک شتاب‌دهنده استراتژیک و فعال است که مستقیماً بر سرعت، کارایی و مقیاس‌پذیری کل عملیات هوش مصنوعی تأثیر می‌گذارد. یک مدل پیچیده که ممکن است ماه‌ها طول بکشد تا روی یک شبکه شلوغ، غیربهینه و دارای گلوگاه آموزش ببیند، می‌تواند با استفاده از یک پارچه شبکه بومی هوش مصنوعی (AI-Native Fabric) بهینه‌شده در عرض چند هفته یا حتی چند روز به نتیجه برسد. این کاهش زمان، مستقیماً به مزیت رقابتی حیاتی در عرصه‌هایی مانند تحقیق و توسعه (R&D)، اکتشاف علمی، توسعه محصولات نوآورانه و هوش عملیاتی کسب‌وکار (Business Operational Intelligence) ترجمه می‌شود.

با بهره‌گیری از میراث و تخصص عمیق خود در حوزه قابلیت اطمینان در سطح مخابراتی (Carrier-Grade Reliability) و مهندسی عملکرد بالا، و با اعمال این دانش بر روی تقاضاهای بی‌رحم و جدید مرکز داده هوش مصنوعی، نوکیا امروز صرفاً روتر و سوئیچ نمی‌فروشد. این شرکت در حال ارائه سیستم عصبی مرکزی (Central Nervous System) برای نسل بعدی هوش مصنوعی و محاسبات در مقیاس بزرگ است. پشته فناوری جامع آن — که از تراشه تخصصی FP5 در پایین‌ترین لایه شروع می‌شود و تا سیستم عامل هوشمند SR Linux و پلتفرم مدیریت NSP در بالاترین لایه امتداد می‌یابد — نمایانگر یکی از کامل‌ترین، یکپارچه‌ترین و آینده‌نگرانه‌ترین دیدگاه‌های معماری برای مدیریت سونامی داده‌های عظیم هوش مصنوعی (Massive AI Data Tsunami) در سال‌های پیش رو است.

موفقیت نهایی این دیدگاه بلندپروازانه توسط یک معیار کلیدی تعیین خواهد شد: میزان پذیرش و استقرار آن در "کارخانه‌های هوش مصنوعی" (AI Factories) سبز (جدیدساز) و همچنین محیط‌های موجودی که توسط ارائه‌دهندگان خدمات ابری عمومی و خصوصی (Public & Private Cloud Providers)، مؤسسات تحقیقاتی پیشرو، شرکت‌های فناوری بزرگ و حتی دولت‌ها در سراسر جهان ساخته و به‌روز می‌شوند.

یک نکته با قطعیت کامل واضح است: آینده هوش مصنوعی در مقیاس بزرگ (Large-Scale AI) به طور جدایی‌ناپذیر و عمیقاً به آینده شبکه‌بندی (Networking) گره خورده است. پیشرفت در یکی بدون پیشرفت در دیگری ناقص و محدود خواهد بود. نوکیا با بینش استراتژیک خود نه تنها قصد دارد در این تحول بزرگ نقش داشته باشد، بلکه هدف آن است که در مرکز تقاطع این دو آینده قرار گیرد و به عنوان یک معمار و توانمندساز کلیدی برای دوران جدید هوش مصنوعی عمل کند. دورانی که در آن داده‌ها بزرگ هستند، مدل‌ها عظیم هستند و شبکه باید هوشمند، سریع و بی‌وقفه باشد.