بررسی 6 جریان تأثیرگذار بر شبکههای آینده ماهنامه شبکه - خرداد 1392 شماره 145
منبع: آرستکنيکا ترجمه: احمد شريفپور
اشاره: ماهنامه شبکه - مراکز داده سازمانی در حال تجربه تغییری اساسی هستند. تغییری که مشابه آن از زمان جایگزین شدن مینفریمها با سرورهای اینتلی، دیده نشده بود. موضوع تنها پلتفرم سرور نیست. کل زیرساخت این مراکز داده از پایین تا بالا دستخوش تغییر خواهد شد ...
مراکز داده سازمانی در حال تجربه تغییری اساسی هستند. تغییری که مشابه آن از زمان جایگزین شدن مینفریمها با سرورهای اینتلی، دیده نشده بود. موضوع تنها پلتفرم سرور نیست. کل زیرساخت این مراکز داده از پایین تا بالا دستخوش تغییر خواهد شد چراکه کاربریهای مختلف این مراکز داده در حال مهاجرت به سمت ابرهای خصوصی و عمومی هستند، شبکهها سریعتر میشوند و مجازیسازی به چیزی طبیعی تبدیل شده است. همه این تحولات به این معنی است که مراکز داده آینده با نمونههای کنونی به شدت متفاوت خواهند بود. پردازندهها، سیستمها و فضای ذخیرهسازی بهتر با یکدیگر یکپارچه و بیش از پیش مجازی خواهند شد. همچنین بهتر میتوانند از شبکههای بهتر و پهنای باند اینترنت استفاده کنند. پیشرفتهای حاصل در شبکهها در قلب تمام این تغییرات قرار دارند. در این نوشتار به بررسی 6 جریانی خواهیم پرداخت که نیروی محرکه انقلاب نسلبعدی مراکز داده را تأمین میکنند و میبینیم که دستاندرکاران IT و حتی استفاده کنندگان نهایی برای کسب آمادگی لازم برای روبهرویی با این تغییرات به چه اقداماتی نیاز دارند. فراتر از شبکههای 10 گیگابیت بر ثانیه بهیقین میدانیم که اتصالات شبکهای روزبهروز سریعتر میشوند. این روزها دیدن اتصالات اترنت 10 گیگابیتی (GbE) در سرورهای بزرگ بسیار معمول است. اما حتی 10GbE هم به اندازه کافی برای مراکز داده به شدت مجازی شده یا برای کاربردهایی که نیازمند استریم صوت و تصویر در مقیاس وسیع هستند، مناسب نیست. با افزایش تعداد سرورهای مجازی به شبکههای سریعتری نیاز داریم تا بار اطلاعات مورد نیاز برای پردازشهای آنها را مدیریت کنند. راهاندازی یک سرور مجازی ممکن است باعث صرفهجویی در هزینه خرید سرورهای فیزیکی شود، اما میزان ترافیک اطلاعات را در شبکه شما کاهش نمیدهد. درواقع بسته به این که زیرساخت مجازیسازی شما چگونه کار میکند، تأثیر یک سرور مجازی روی شبکه شما ممکن است بیش از یک سرور فیزیکی باشد و با توجه به استفاده روزافزون از صوت و تصویر در سازمانها و موقعیتهای معمول تجاری، حجم فایلها هم روزانه بیشتر میشود. نتیجه این امر به وجود آمدن فایلهای چند گیگابایتی است که بهسادگی ممکن است ظرفیت شبکه شما را پر کنند، حتی اگر شبکه داخلی مرکز داده شما 10GbE باشد. بخشی از فرآیند کنار آمدن با این معضل در انتقال داده هوشمندی بیشتر در زمینه تشخیص گلوگاههای شبکه و برطرف کردن آنها است. درایورهای ناکامل کارتهای شبکه که خروجی دستگاهها را محدود میکنند نمونهای از این گلوگاهها هستند. مسیرهای نامناسب یا مشکلدار انتقال داده نیز ممکن است باعث بروز تأخیر در انتقال دادهها شوند. بهصورت معمول، هیچکس این درایورهای نامناسب و مسیرهای انتقال ناکارآمد را به دقت بررسی نکرده است، زیرا در شبکههای با ترافیک کمتر به طور معمول، مشکلی ایجاد نمیکنند. البته، توجه به این نکته مانع این امر نمیشود که پهنای باند بیشتر در برخی مواقع به سختافزارهای جدید احتیاج دارد. تولیدکنندگان این محصولات نیز بهخوبی آمادهاند و هماکنون هم تعداد زیادی روتر، سوئیچ و کارت شبکه موجود هستند که به با سرعتهای 40 و حتی صد گیگابیت کار میکنند. بسیاری از تولیدکنندگان این تجهیزات را میفروشند. بخش Force10 شرکت دل، ملانوکس (Mellanox)، اچپی، اکستریمنتورکز (Extreme Networks) و بروکید (Brocade) نمونههایی از این تولیدکنندگان هستند. داشتن امکان انتخاب بسیار خوب است، اما نرخ سازگاری با شبکههای 40 گیگابیتی هنوز پایین است. دو موضوع استفاده از چنین تجهیزات پر سرعتی را با مشکل مواجه میکند. نخست مسئله قیمت است، چراکه این تجهیزات چندان ارزان نیستند. هزینه هر پورت 40 گیگابیتی روی سوئیچ به صورت میانگین 2500 دلار است که بسیار بیش از پورتهای 10 گیگابیتی است. بسته به ماهیت کسبوکار شما ممکن است این هزینه اولیه چندان مهم نباشد، اما این تنها هزینه مورد نیاز نیست. بیشتر این تجهیزات به کابلها و سوکتهای اتصال جدیدی احتیاج دارند که پیادهسازی 40GbE را با مشکل مواجه میکند. به این ترتیب، یک مدیر IT باید در هنگام مطالعه برای فراتر رفتن از سرعت 10GbE هزینه کلی استفاده از چنین سیستمی را در نظر بگیرد. با سریع و سریعتر شدن اترنت برنامه کابلکشی برای این شبکههای سریعتر نیز به تدریج متحول شده است. کابلهای مسی قدیمی RJ45 در ردههای CAT5 و CAT6 و حتی اتصالات فیبرنوری معمول دیگر با سرعت 40GbE سازگار نیستند. اتصالات جدید باید از استاندارد QSFP (سرنام Quad Small Form-factor Pluggable) استفاده کنند. کابلهای دارای کانکتور QSFP را نمیتوان در محل برید یا به سوکت متصل کرد. به این معنی که دیگر پرسنل IT نمیتوانند کابلها را براساس نیاز به طول دلخواه بریده و سوکتهای SC یا LC را به آنها متصل کنند. مراکز داده باید سیستم کابلکشی و طولهای موردنیاز را به دقت تعیین کرده و آنها را سفارش دهند تا سوکتها در کارخانه به کابلها متصل شوند. این موضوع نیز مانع بزرگی بر سر راه مهاجرت مراکز داده معمولی بهشمار میرود. چراکه آنها تاکنون به استفاده از سیمهای مسی عادت کردهاند. معنای دیگر این است که تمام هزینههای انجام شده برای کابلهای نوری هدر رفته است. (شکل 1)
شکل 1: چیدمانهای مختلف کانکتورهای QSFP برای شبکههای 40GbE و سایر مشخصات آنها در عین حال، با افزایش درک مدیران IT از اتصالات QSFP ما استفاده بیشتری از شبکههای 40 و 100 گیگابیت برثانیه را شاهد خواهیم بود. حتی اگر این کاربردها در مسیرهای کوتاهی، مثلا میان دو رک مختلف در خود مرکز داده باشد. این سوئیچها را «سوئیچهای بالای رک» (Top Of Rack) مینامند. آنها یک سوئیچ مرکزی یا مجموعهای از سوئیچها را با یک اتصال پرسرعت به سرورهای داخل یک رک متصل میکنند که معمولاً اتصالات ضعیفتری را پشتیبانی میکند. یکی از تنظیمها یا چیدمانهای احتمالی میتواند این باشد که سرورهای داخل یک رک با اتصالات یک یا ده گیگابیتی با یک سوئیچ در داخل همان رک ارتباط برقرار کنند و آن سوئیچ با اتصالی 40 گیگابیتی به بخشهای دیگر مرکز داده یا سوئیچهای مرکزی متصل شود. با پیادهسازی چنین شبکههای پرسرعتی باید در زمینه مدیریت شبکه، فایروالها و سایر کاربردها منتظر ایجاد تغییراتی برای مدیریت بهتر این حجم عظیم انتقال داده نیز باشیم.
رک بهعنوان یک مرکز داده کوچک در روزهای خوش گذشته که سرورهای x86 تازه پا به درون مراکز داده گذاشته بودند، بهطور معمول، سیستمهای اطلاعاتی در ساختار سه لایه ساماندهی میشدند. کامپیوترهای دسکتاپ رابط کاربری یا نرمافزار ارائه را اجرا میکردند. لایه میانی شامل منطق درونی مرکز داده و کدهای در حال اجرا بود و در نهایت لایه داده درون سرورها و پایگاههای داده قرار داشت. این روزهای سادگی امور دیگر گذشته است! چیزی که هنوز از آن دوران باقی مانده است، همان کارکنان، همان ابزارهای مدیریت سرورها، فضای ذخیرهسازی روترها و دیگر اجزای شبکه و در نهایت همان رکهای مجزا از هم درون مرکز داده است. این سیستم زمانی که کاربردهای مراکز داده مستقل از هم و بدون وابستگی بودند بهخوبی کار میکرد. اما امروزه که کاربریهای مراکز داده دارای لایههای متعدد بوده و بهگونهای ساخته شدهاند که با یکدیگر در ارتباط باشند(مانند یک سرور وب که به سرور پایگاه داده یا یک سرور زمانبندی یا یک سیستم ابری متصل میشود)، دیگر جواب نمیدهد. تمام این اجزا اکنون روی ماشینهای مجازی اجرا میشوند. رکهای کنونی بیشتر و بیشتر همگرا و مجتمع شده و مدیریت فضای ذخیرهسازی، سرورها و عملیات شبکه را در کنار هم انجام میدهند. ظهور فناوری سرورهای تیغهای که تمام این اجزای اساسی یک کامپیوتر را بهصورت یک کارت درآورد و توانست بهسادگی آن را در شکافهای توسعه یک کیس (رک) جای دهد، نخستین نشانههای چنین اندیشهای بود. سرورهای تیغهای سالها است که در دسترس هستند، اما جهش اساسی زمانی اتفاق افتاد که آنها به همراه مدیریت صحیح و نرمافزارهای مجازیسازی به کار گرفته شدند تا نمونههای جدیدی از سرورها، فضاهای ذخیرهسازی و شبکهها را به وجود بیاورند. همچنین جای دادن تعداد زیادی سرور تیغهای در یک کیس واحد بزرگ، چگالی رکها را به شکل خیرهای کنندهای افزایش داد. این کاری چیزی فراتر از جای دادن مجموعهای از قطعات در یک رک است. تولیدکنندگانی که شروع به فروش این راهحلهای «مرکز داده در یک رک» کردهاند، سرویسهای آزمایش مهندسی و یکپارچگی سیستم را پیش آماده کردهاند. آنها همچنین طرحهای نمونهای را دراختیار دارند که میتواند به صاحبان مراکز داده کمک کند سیستمها را طوری انتخاب کنند که با کمترین دردسر در زمینه کابلکشی روبهرو شوند. این تولیدکنندگان حتی نرمافزارهایی برای خودکار کردن فرآیندهای مدیریتی تهیه کردهاند. چیدمانهای پیشنهادی آنها خروجی سیستم را بهتر کرده و باعث میشود مدیریت بخشهای مختلف سادهتر باشد. شرکتهای بسیاری هستند که چنین خدماتی را عرضه میکنند که بهعنوان نمونه میتوان از خدمات Active Infrastructure شرکت دل و PureSystems شرکت آیبیام نام برد. پیش از این، لازم بود که بخشهای مختلف دپارتمان IT اجزای مختلف سیستم را تنظیم کنند. یک گروه مسئولیت سرورها را بر عهده داشت، گروه دیگری زیرساخت شبکه را کنترل میکرد و گروه دیگر به مدیریت فضاهای ذخیرهسازی میپرداخت. این شیوه اداره مرکز داده به تلاش و هماهنگی زیادی نیاز داشت. اکنون تمام این کارها را میتوان با هماهنگی کامل و تنها از طریق یک منبع واحد به انجام رساند. (شکل2)
شکل 2: سیستم سرورهای تیغهای دل با نام PowerEdge بد نیست برای نمونه به Active Infrastructure دل نگاهی داشته باشیم. دل ادعا میکند که در این سیستم 755 مرحله از مراحل مورد نیاز برای راهاندازی یک سرور و اتصال آن به شبکه را از سر راه برداشته است. این محصول با سرورهای اینتلی PowerEdge در یک رک عرضه میشود، آرایه SANهای آن از محصولات بخش Compellent دل است و سرورهای تیغهای که برای جمعآوری ورودی و خروجی و اتصالات پرسرعت شبکه مورد استفاده قرار میگیرند از محصولات بخش Force10 دل هستند. کل این بسته به لحاظ مصرف انرژی بهرهوری بالایی دارد و راهاندازی آن بسیار ساده است. ما دموهایی از دل و آیبیام را دیدهایم که در آنها کل کلاستر شبکه ظرف کمتر از یک ساعت از حالت خاموش به حالت آماده به کار درآمدهاند و تمام کارهای مدیریتی آنها از طریق مدیر سیستمی انجام شده است که میتواند در آن سر دنیا باشد و فقط از طریق یک مرورگر وب به سیستم متصل شود.
فراتر از SANهای ساده با توسعه SANها (سرنام Storage Area Network) این سیستمها نیز پیچیدهتر شدهاند. امروزه SANها از ابزارهای مدیریت ذخیرهسازی قدرتمندتری بهرهمند هستند که این سیستمها را کارآمدتر و انعطافپذیرتر میکند. تاکنون مدیریت SANها براساس نظم و قوانین خاصی انجام میشد و نیازمند مهارتهای خاص و درک عمیق از تنظیمات SANها برای دستیابی به کارایی بهتر بود. اما این وضعیت دیگر ادامه نخواهد داشت، با پیشرفت ابزارهای مدیریت SAN حتی افرادی که آشنایی اندکی با IT داشته باشند میتوانند یکی از آنها را به راه بیاندازند. مرکز داده Active Infrastructure دل که پیشتر از آن سخن گفتیم نشان میدهد که SANها تا چه اندازه در سیستمهای دیگر ادغام شدهاند. علاوهبر چنین تلاشهایی، گروهی از ابزارهای مدیریت در حال توسعه و رشد نیز وجود دارند که مشاهده و مدیریت کل زیرساخت SAN را برای مدیران سیستم بهسادگی «آب خوردن» میکنند. این ابزارها حتی میتوانند مجموعه دیسکهای مجازی مرکز داده را بسیار کارآمدتر کنند (شکل3).
شکل 3: نرمافزار مدیریت فضای ذخیرهسازی SANSymphony که محصول Datacore Software است چیدن و تنظیم ظرفیت ذخیرهسازی، به گونهای که کارایی آن بسیار بالاتر رود، را برای مدیر سیستم به شدت ساده میکند. یکی از مشکلات ذخیرهسازی مجازی این است که شما ممکن است حجم زیادی از فضای خالی دراختیار داشته باشید که هیچگاه توسط هیچ یک از ماشینهای مجازی مورد استفاده قرار نمیگیرد. در یک سناریوی کاملاً معمول، ممکن است یک ترابایت فضای ذخیرهسازی را به مجموعهای از ماشینهای مجازی نسبت دهید و تنها صد گیگابایت آن واقعاً توسط سیستمعامل و برنامههای ماشین مجازی مورد استفاده قرار بگیرد. مسئله این است که باید فضای کافی در اختیار داشته باشید تا درایوهای مجازی شما در صورت نیاز بتوانند بزرگتر شوند، به همین دلیل همیشه باید فضای ذخیرهسازیای را کنار بگذارید که در غیر این صورت میتوانست توسط ماشینهای دیگر مورد استفاده قرار بگیرد. اینجا است که تخصیص داینامیک فضای اندک (Dynamic thin Provisioning) به کمک میآید. بیشتر آرایههای SAN نوعی از سیستم تخصیص فضای اندک را به صورت توکار دارند و به شما اجازه میدهند بدون تخصیص «واقعی» فضا آن را میان ماشینهای مجازی تقسیم کنید. یک درایو یک ترابایتی که با تخصیص فضای اندک تهیه شده باشد، حجم خود را به سیستم یک ترابایت «اعلام» میکند، اما در واقع تنها حجمی به اندازه دادههای خود اشغال میکند. به عبارت دیگر یک فضای ذخیرهسازی یک ترابایتی فیزیکی را میتوان بهصورت کلان به عنوان یک درایو یک ترابایتی به سیستم معرفی کرد یا آن را به کمک تخصیص فضای اندک به یک دوجین درایو کوچکتر تقسیم کرد که خود را یک ترابایتی معرفی میکنند. تخصیص فضای اندک میتواند نقش مهمی در پیشبینی هزینههای سازمانی برای تهیه فضای ذخیرهسازی داشته باشد. با تخصیص فضای اندک این امکان فراهم میشود که درایوهایتان را با حداکثر اندازه راهاندازی کنید، اما تنها در هنگام نیاز دیسکهای فیزیکی را خریداری کنید. یکی دیگر از کارهایی که SANهای امروزی میتوانند انجام دهند حذف دادههای تکراری (Deduplication) است. شیوههای مختلفی برای این کار وجود دارد، و هر تولیدکنندهای حقهها و رازهای مخصوص خود را در پیادهسازی آن دارد. اما هدف همه آنها کاهش یا حذف دادههای تکراری است که چندین بار ذخیره شدهاند. هنگامی که این فضاهای ذخیرهسازی با ماشینهای مجازی مورد استفاده قرار بگیرند، حذف دادههای تکراری به این معناست که فایلهای معمول سیستمعامل و برنامهها لازم نیست روی چندین درایو مجازی جداگانه کپی شوند بلکه میتوانند از یک محل واحد مشترک خوانده شوند. به این ترتیب میتوان از فضای زیادی که این دادهها اشغال میکردند برای کارهای بهتری استفاده کرد. به عنوان مثال صدها ماشین مجازی ویندوز را در نظر بگیرید. آنها بهطور معمول، همه در پوشه Windows، پوشه Program Files و بسیاری جاهای دیگر خود دادههای یکسانی دارند. Deduplication این اطمینان را فراهم میکند که این حجم عظیم از دادههای مشترک و عمومی تنها یک بار ذخیره شوند و به این ترتیب، حجم عظیمی از فضای ذخیرهسازی آزاد میشود. رایامحک پردازش . www.rayamahak.ir متن کامل 🔻 araycode.ir/news_view.php?number=13920414072140www.araycode.ir/